Willkommen zu unserem KI-Glossar! Wir bieten eine umfassende Sammlung von Begriffen und Definitionen aus dem Bereich der künstlichen Intelligenz, um Ihnen dabei zu helfen, sich in diesem komplexen Gebiet zurechtzufinden. Ob Sie ein Student, Forscher oder einfach nur an KI interessiert sind, unser Glossar ist eine nützliche Ressource, um Ihr Verständnis der wichtigsten Konzepte und Technologien zu erweitern. Von Machine Learning bis hin zu Neuronalen Netzen finden Sie hier alles, was Sie über die Grundlagen der KI wissen müssen.
Künstliche Intelligenz (KI) bezieht sich auf Maschinen, die Aufgaben ausführen können, die normalerweise menschliche Intelligenz erfordern. Dies umfasst alles von der Erkennung von Bildern bis zur Entscheidungsfindung. Ein wichtiger Teilbereich ist die 'Generative AI', die in der Lage ist, neue Inhalte wie Texte, Bilder oder Musik zu erzeugen, indem sie Muster in großen Datensätzen lernt. Mit zunehmendem Einsatz von KI in verschiedenen Branchen wird ihre Bedeutung und Anwendung stetig wachsen.
Ein künstliches neuronales Netzwerk (ANN) ist ein Modell im maschinellen Lernen, das die Funktionsweise des menschlichen Gehirns nachahmt. Es besteht aus mehreren miteinander verbundenen Einheiten, die ähnlich wie Neuronen arbeiten. Diese Netzwerke werden verwendet, um Muster in Daten zu erkennen, wie z.B. in Bildern oder Texten, und sind ein wesentlicher Bestandteil moderner KI-Systeme, insbesondere in der Spracherkennung und Bildverarbeitung.
Autoencoder sind spezialisierte neuronale Netzwerke, die darauf ausgelegt sind, eine kompakte und effiziente Darstellung von Daten zu lernen. Sie werden häufig zur Datenkomprimierung und Anomalieerkennung verwendet. Durch das Lernen von nur den wichtigsten Merkmalen in großen Datenmengen helfen Autoencoder, irrelevante Informationen zu eliminieren und die wichtigsten Muster zu extrahieren, was sie für viele Anwendungen in der KI wertvoll macht.
Bagging, kurz für 'Bootstrap Aggregating', ist eine Methode im maschinellen Lernen, bei der mehrere Modelle trainiert werden, um dasselbe Problem zu lösen, und deren Ergebnisse dann kombiniert werden. Diese Technik verbessert die Vorhersagegenauigkeit, indem sie verschiedene Perspektiven zusammenführt. Häufig wird Bagging in Algorithmen wie Random Forests verwendet, um die Leistung und Robustheit des Modells zu erhöhen.
Big Data bezeichnet extrem große Datensätze, die analysiert und verwendet werden können, um Muster, Trends und Assoziationen zu identifizieren. Diese Daten sind entscheidend für die Entwicklung und Schulung moderner KI-Modelle, da sie den Algorithmen ermöglichen, aus einer Vielzahl von Beispielen zu lernen. Die Analyse von Big Data hilft Unternehmen, fundierte Entscheidungen zu treffen und zukünftige Trends besser vorherzusagen.
Eine maschinelles Lernen Ensemble-Technik, bei der schwache Lernende kombiniert werden, um einen starken Lernenden zu bilden, mit dem Ziel, die allgemeine Vorhersagen-Genauigkeit zu verbessern.
Ein Chatbot von OpenAI, aufgebaut auf ihrem GPT3.5 großen Sprachmodell, trainiert mit öffentlichen Daten.
Der Prozess des Einteilens von Daten in vordefinierte Klassen oder Gruppen.
Der Prozess des Zusammenfügens von Datenpunkten basierend auf Ähnlichkeit oder gemeinsamen Merkmalen.
Die Entwicklung von Computersystemen, die Aufgaben ausführen können, die normalerweise menschliche Intelligenz erfordern, wie z.B. Lernen und Problem-Lösung.
Die Fähigkeit eines Computers, visuelle Daten aus der Welt wie Bilder und Videos zu interpretieren und zu verstehen.
Eine speziell für Bild- und Videoerkennungsaufgaben entwickelte Art von Neuronalem Netzwerk, das Konvolutionsebenen verwendet, um Muster in den Daten zu lernen und zu erkennen.
Eine Modellauswertungstechnik, bei der die Trainingsdaten in mehrere Fälle aufgeteilt werden und das Modell auf jedem Fall trainiert und ausgewertet wird, um eine Schätzung seiner Allgemeinleistung zu erhalten.
Der Prozess des Extrahierens nützlicher Muster und Wissen aus großen Datensätzen.
Eine flussdiagrammartige Baustruktur, die zur Entscheidungsfindung anhand einer Reihe von binären Aufteilungen verwendet wird.
Eine von Google entwickelte Bildgenerierungstechnik, die ein konvolutionelles Neuronales Netzwerk verwendet, um Traum-ähnliche Bilder durch Verdichtung der Merkmale des Netzwerks zu erzeugen.
Ein Unterfeld des maschinellen Lernens, bei dem mehrschichtige neuronale Netzwerke trainiert werden, um auf eigene Faust zu lernen und Entscheidungen zu treffen.
Der Prozess der Reduzierung der Anzahl an Merkmalen oder Dimensionen in einer Datenmenge, während möglichst viel an Information erhalten bleibt.
Der Faktor, mit dem zukünftige Belohnungen im Reinforcement Learning-Algorithmus abgezinst werden, um das Gleichgewicht zwischen kurzfristigen und langfristigen Belohnungen auszugleichen.
Eine Methode zur Lösung von Optimierungsproblemen, bei der diese in kleinere Teilprobleme zerlegt und die Lösungen zu diesen Teilproblemen in einer Tabelle oder einem Array gespeichert werden.
Eine maschinelle Lerntechnik, bei der mehrere Modelle trainiert und kombiniert werden, um Vorhersagen zu machen, mit dem Ziel, die Gesamtleistung des Modells zu verbessern.
Die Reihenfolge von Zuständen, Aktionen und Belohnungen, die ein Agent in einem Verstärkungslernproblem erlebt, bevor er einen Endzustand erreicht.
Ein Satz von Algorithmen, die Prinzipien der natürlichen Evolution wie Reproduktion, Mutation und Selektion nutzen, um Lösungen für Probleme zu finden.
Ein Computerprogramm, das künstliche Intelligenztechniken einsetzt, um die Entscheidungsfähigkeit eines menschlichen Experten in einem bestimmten Bereich nachzuahmen.
Explainability in AI bezieht sich auf die Fähigkeit, die Entscheidungen und Handlungen eines KI-Systems verständlich zu machen. Dies ist besonders wichtig in sicherheitskritischen Bereichen wie Medizin oder Finanzen, wo es entscheidend ist, zu verstehen, warum eine bestimmte Entscheidung getroffen wurde. Erklärbare KI hilft, Vertrauen aufzubauen und sicherzustellen, dass KI-Systeme transparent und verantwortungsbewusst eingesetzt werden.
Die Spannung zwischen Erkundung neuer Handlungen und Ausnutzung der bekannten guten Handlungen, um das Lernen und die belohnungsoptimierenden Ziele des Agenten auszugleichen, ist ein wesentlicher Bestandteil des maschinellen Lernens.
Der Prozess des Identifizierens und Verifizierens von Individuen anhand ihrer Gesichtsmerkmale.
Der Prozess des Auswählens und Erstellens informativer und relevanter Merkmale aus rohen Daten für die Verwendung in einem maschinellen Lernmodell.
Der Prozess des Auswählens einer Teilmenge der relevantesten Merkmale aus einer größeren Merkmalsmenge, um sie in einem maschinellen Lernmodell zu verwenden.
Eine maschinelles Lernen Technik, die darin besteht, die Hyperparameter oder Parameter eines vortrainierten Modells auf einem neuen Datensatz anzupassen, um seine Leistung für eine bestimmte Aufgabe zu optimieren. Fine-Tuning wird häufig genutzt, wenn ein vortrainiertes Modell für eine ähnliche Aufgabe verfügbar ist, aber die verfügbaren Daten für die neue Aufgabe sind begrenzt oder die Zielaufgabe unterscheidet sich leicht von der ursprünglichen Aufgabe.
Die Verwendung einer Funktion zur Annäherung an die Wertfunktion oder an die Politik in einem Verstärkerlernproblem, wenn die Zustands- oder Aktionsräume zu groß sind, um explizit dargestellt zu werden.
Eine Form der mathematischen Logik, die Unsicherheit und Ungenauigkeit in der Eingabe und Ausgabe eines Systems ermöglicht.
Ein Typ eines generativen Modells, bestehend aus zwei konkurrierenden neuronalen Netzwerken, einem Generator und einem Diskriminator, die dazu lernen, synthetische Daten zu generieren und zu erkennen.
Ein von OpenAI entwickeltes großes Sprachmodell, das die Transformer-Architektur und das selbstorganisierte Lernen verwendet, um menschenähnliche Texte zu generieren.
Ein Generative Pre-trained Transformer (GPT) ist ein fortschrittliches Sprachmodell, das auf umfangreichen Textdaten trainiert wurde, um menschenähnliche Texte zu generieren. GPT-Modelle wie GPT-4 oder GPT-4o können in einer Vielzahl von Anwendungen eingesetzt werden, darunter das Schreiben von Artikeln, das Führen von Gesprächen und die Übersetzung von Texten. Durch ihre Fähigkeit, Kontext und Sprache zu verstehen, haben sie die Art und Weise, wie wir mit Maschinen interagieren, revolutioniert.
Eine Art von neuronales Netzwerk bestehend aus zwei konkurrierenden Netzwerken, einem Generator und einem Diskriminator, die lernen, synthetische Daten zu generieren und zu erkennen.
Ein maschinelles Lernmodell, das die zugrunde liegende Verteilung der Daten lernt und neue, synthetische Beispiele daraus generieren kann.
Ein Suchalgorithmus, der Prinzipien der natürlichen Evolution wie Reproduktion, Mutation und Selektion verwendet, um Problemlösungen zu finden.
In der KI beschreibt der Begriff 'Hallucination' die Situation, in der ein KI-Modell falsche oder unsinnige Informationen generiert, die aber auf den ersten Blick plausibel erscheinen. Dies tritt häufig bei großen Sprachmodellen auf, wenn sie auf unsichere oder unzureichende Daten zurückgreifen und Annahmen treffen, die nicht auf tatsächlichen Fakten basieren. Das Verständnis und die Minimierung von Halluzinationen ist ein aktives Forschungsgebiet, da sie die Zuverlässigkeit von KI-Systemen beeinträchtigen können.
Eine Problem-Lösungsmethode, die darauf basiert, durch Versuch und Irrtum eine Lösung zu finden und aus früheren Erfahrungen zu lernen.
Der Prozess des Anpassens der Parameter eines maschinellen Lernmodells, die vor dem Training gesetzt wurden, um seine Leistung zu verbessern.
Der Prozess des Kennzeichnens oder Annotierens von Bildern mit relevanten Informationen, wie z.B. Objektklassen oder begrenzende Boxen.
Der Prozess des Generierens einer natürlichen Sprachbeschreibung eines Bildes.
Der Prozess des Zuordnens eines Bildes zu einer oder mehreren vordefinierten Kategorien oder Klassen.
Den Prozess des Hinzufügens von Farben zu einem Graustufenbild.
Der Prozess der Verbesserung der visuellen Qualität eines Bildes, wie z.B. das Erhöhen des Kontrasts oder Entfernen von Rauschen.
Der Prozess des Erstellens neuer, synthetischer Bilder mit Hilfe künstlicher Intelligenz-Techniken.
Der Prozess der Vorbereitung der Bilder zur Verwendung.
Der Prozess des Reparierens oder Wiederherstellens eines verschlechterten oder beschädigten Bildes.
Der Prozess des Suchens und Abrufens von Bildern aus einer großen Datenbank basierend auf deren visuellem Inhalt.
Der Prozess des Aufteilens eines Bildes in mehrere Regionen oder Segmente, die jeweils ein anderes Objekt oder einen Hintergrund repräsentieren.
Der Prozess des Konvertierens eines Bildes von einem Domain in eine andere, wie z.B. das Übersetzen eines Fotos in ein Gemälde oder eine Skizze.
Der Prozess des Schlussfolgerns aus Prämissen mithilfe logischen Schlussfolgerungen.
Der Prozess des Reparierens oder Ausfüllens beschädigter oder fehlender Teile eines Bildes.
Ein unüberwachtes maschinelles Lernverfahren, das verwendet wird, um Datenpunkte in eine vordefinierte Anzahl von Clustern zu clustern.
Die Art und Weise, wie Wissen in einem Computer-System codiert und gespeichert wird.
Ein Sprachmodell in der Künstlichen Intelligenz ist ein statistisches Modell, das verwendet wird, um die Wahrscheinlichkeit einer Wort- oder Tokenfolge in einer Sprache vorherzusagen. Sprachmodelle werden häufig in Aufgaben der natürlichen Sprachverarbeitung verwendet, um sinnvolle und angemessene Texte zu generieren.
Ein großes Sprachmodell in der künstlichen Intelligenz ist eine Art statistisches Modell, das an einem sehr großen Datensatz von Texten trainiert wird und maschinelles Lernen nutzt, um die Muster und Struktur der Sprache zu erlernen. Große Sprachmodelle werden häufig für Aufgaben wie Spracherzeugung, maschinelle Übersetzung und Textklassifizierung verwendet und sind in der Lage, menschenähnlichen Text mit hoher Kohärenz und Fluidez zu generieren.
Eine Methode zum Trainieren von Algorithmen mit großen Datenmengen, die es dem Algorithmus ermöglicht, selbst zu lernen und sich ohne explizite Programmierung zu verbessern.
Ein mathematisches Rahmenwerk, das in der Verstärkungs-Lernen verwendet wird, um das Entscheidungsprozess eines Agenten in einer sequenziellen, unsicheren Umgebung zu modellieren.
Die Eigenschaft eines Zustands in einem Markov-Entscheidungsprozess, die besagt, dass die Zukunft unabhängig von der Vergangenheit ist, gegeben dem aktuellen Zustand.
Ein Markow-Entscheidungsprozess, der nur eine Belohnungskomponente hat, ohne Entscheidungsfindung beteiligt.
Ein Modell ist eine Darstellung eines Problems oder eines Systems, das verwendet werden kann, um Vorhersagen, Entscheidungen oder Muster in Daten zu erkennen. Modelle sind ein grundlegender Bestandteil des Maschinellen Lernens und werden verwendet, um verschiedene Aufgaben auszuführen, wie Klassifizierung, Regression, Clustering oder Dimensionierung. Modelle können mithilfe verschiedener maschineller Lernalgorithmen auf einem Datensatz trainiert werden, wie überwachtes Lernen, unüberwachtes Lernen oder Verstärkungslernen, um die Beziehungen und Muster in den Daten zu erkennen und darauf basierend Vorhersagen oder Entscheidungen zu treffen.
Der Prozess, ein Machine Learning-Modell für den Einsatz in Produktionsumgebungen bereitzustellen, wie z.B. das Deployment auf einem Webserver oder die Integration in eine Anwendung.
Der Prozess des Messens der Leistung eines maschinellen Lernmodells für eine bestimmte Aufgabe mithilfe von Metriken wie Genauigkeit, Präzision und Erinnerung.
Der Prozess der Auswahl des besten Modells unter einer Gruppe von Kandidatenmodellen für eine gegebene Aufgabe.
Ein Verstärkungslernalgorithmus, der zufällige Stichproben verwendet, um die Wertfunktion oder die optimale Richtlinie zu schätzen.
Ein maschinelles Lernproblem, bei dem ein Agent unter einer Menge an Aktionen wählen muss, wobei jede eine unbekannte Belohnungsverteilung hat, und er lernt durch Versuch und Irrtum, welche Aktionen die lohnendsten sind.
Multimodal AI bezieht sich auf KI-Modelle, die in der Lage sind, mehrere Arten von Daten wie Text, Bilder, Audio und Videos gleichzeitig zu verarbeiten und zu verstehen. Diese Fähigkeit macht sie besonders effektiv für Anwendungen, die umfassende Datenanalysen erfordern, wie z.B. autonome Fahrzeuge, die sowohl visuelle als auch akustische Informationen verarbeiten müssen.
Ein maschinelles Lernverfahren, das für Klassifikationsaufgaben basierend auf dem Bayes-Theorem der Wahrscheinlichkeit verwendet wird.
Die Fähigkeit eines Computers, menschliche Sprache zu verstehen, zu interpretieren und zu generieren.
Ein Typ eines maschinellen Lernalgorithmus, der dem Aufbau und der Funktion des menschlichen Gehirns nachempfunden ist und aus Schichten von miteinander verbundenen "Neuronen" besteht, die Informationen verarbeiten und übertragen können.
Der Prozess des Skalierens der Werte eines Merkmals oder eines Datensatzes auf einen gemeinsamen Bereich, wie zum Beispiel [0, 1] oder [-1, 1].
Der Prozess des Identifizierens und Lokalisierens von Objekten in einem Bild oder Video.
Ein System, das die Beziehungen und Kategorien innerhalb eines bestimmten Wissensbereichs darstellt.
Die Politik, die die erwartete kumulative Belohnung in einem Verstärkungslernproblem maximiert.
Die Wertfunktion, die zur optimalen Politik in einem Reinforcement-Learning-Problem entspricht.
Ein Zustand, in dem ein maschinelles Lernmodell auf den Trainingsdaten gut funktioniert, aber auf neuen, ungesehenen Daten schlecht funktioniert, aufgrund von Überkomplexität und Anpassung an den Rauschen in den Trainingsdaten.
Die Fähigkeit, Muster oder Regelmäßigkeiten in Daten zu erkennen.
Der Prozess der Bestimmung eines Handlungsplans zur Erreichung eines bestimmten Ziels.
Ein Verstärkungslern-Algorithmus, der die Abwechslung zwischen der Bewertung der aktuellen Richtlinie und der Verbesserung auf Basis der gelernten Wertfunktion beinhaltet.
Der Prozess der Vorbereitung der Daten für die Verwendung in einem maschinellen Lernmodell, einschließlich Reinigung, Transformation und Skalierung der Daten.
Der Begriff "Prompt" bezeichnet in der Künstlichen Intelligenz und insbesondere in der Welt der Conversational AI eine Anforderung oder einen Vorschlag, der an ein KI-Modell gesendet wird, um eine bestimmte Antwort oder Aktion auszulösen. Ein Prompt kann in Form einer Frage, eines Befehls oder einer Anweisung gestellt werden und dient dazu, das Modell zu einem gewünschten Verhalten oder einer gewünschten Antwort zu führen.
Beispiel: In einem Dialogsystem wie ChatGPT könnte ein Benutzer das System mit dem Prompt "Was ist das Wetter heute?" aktivieren. Das System würde dann diese Eingabeaufforderung verarbeiten und eine entsprechende Antwort generieren, wie "Es ist heute bewölkt mit einer Höchsttemperatur von 22 Grad."
Prompts spielen eine entscheidende Rolle bei der Gestaltung der Interaktion zwischen Mensch und KI, da sie das KI-Modell auf bestimmte Themen, Gesprächskontexte und Reaktionen ausrichten können. Sie sind ein grundlegendes Werkzeug zur Steuerung und Leitung der KI-Performance und sind von besonderer Bedeutung in Bereichen wie KI-gesteuerte Kundenservice-Chatbots, virtuelle Assistenten, kreatives Schreiben und Lehren mit KI.
Ein Verstärkungslernalgorithmus, der eine Aktionswertfunktion, auch als Q-Funktion bekannt, lernt, die die erwarteten zukünftigen Belohnungen für jede Aktion in einem gegebenen Zustand schätzt.
Quantum AI kombiniert die Prinzipien der Quantenmechanik mit künstlicher Intelligenz, um extrem schnelle und effiziente Berechnungen durchzuführen. Durch die Nutzung von Quantencomputern kann Quantum AI komplexe Probleme lösen, die für klassische Computer zu schwierig wären. Diese Technologie befindet sich noch in einem frühen Entwicklungsstadium, bietet aber das Potenzial, die Leistung von KI-Systemen dramatisch zu verbessern.
Der Prozess des Schlussfolgerns basierend auf Beweisen und logischen Argumenten.
Ein speziell für die Verarbeitung sequenzieller Daten entwickeltes neuronales Netzwerk, das Rückkopplungsverbindungen verwendet, um dem Netzwerk zu ermöglichen, frühere Informationen zu speichern und zu nutzen.
Eine maschinelles Lernen-Technik, die dazu verwendet wird, einen kontinuierlichen numerischen Wert basierend auf einer Reihe von Eingabefeatures vorherzusagen.
Eine Art von Maschinelles Lernen Technik, bei der ein Künstliche Intelligenz (KI) System von dem Feedback oder Belohnungen lernt, die von einem menschlichen Nutzer oder Trainer bereitgestellt werden.
Eine Art des maschinellen Lernens, bei der ein Agent durch Versuch und Irrtum lernt, indem er mit seiner Umgebung interagiert und Belohnungen oder Bestrafungen für seine Handlungen erhält.
Die Funktion, die die Belohnung oder die Bestrafung definiert, die ein Agent für seine Aktionen in einem Verstärkungslernproblem erhält.
Studie und Anwendung von Robotern und Automatisierung.
Ein Verstärkungs-Lern-Algorithmus, der eine Aktions-Wert-Funktion lernt, indem er den erwarteten Belohnung und den Wert der nächsten Aktion verwendet, anstatt der endgültigen Belohnung wie beim Q-Lernen.
Eine Erweiterung des World Wide Web, die es Maschinen ermöglicht, die Bedeutung der Daten im Web zu verstehen.
Stabile Diffusion ist ein Text-zu-Bild-Modell, das auf Deep Learning basiert und auf Basis von Textbeschreibungen hochdetaillierte Bilder erzeugen kann.
Der Prozess des Transformierens der Werte eines Merkmals oder eines Datensatzes, damit sie einen Mittelwert von Null und eine Varianz von Eins haben.
Der Satz aller möglichen Zustände in einem Reinforcement Learning-Problem.
Der Bewegung des Agenten von einem Zustand in einen anderen Zustand in einem Verstärkungslernproblem, basierend auf einer Aktion und den Übergangs-Wahrscheinlichkeiten der Umgebung.
Der Prozess des Übertragens des Stils eines Bildes auf ein anderes Bild, während der Inhalt des zweiten Bildes erhalten bleibt.
Der Prozess des Erhöhens der Auflösung eines Bildes oder Videos durch Ausfüllen der fehlenden Details.