KI Glossar
Ein Verstärkungslernalgorithmus, der eine Aktionswertfunktion, auch als Q-Funktion bekannt, lernt, die die erwarteten zukünftigen Belohnungen für jede Aktion in einem gegebenen Zustand schätzt.
Quantum AI kombiniert die Prinzipien der Quantenmechanik mit künstlicher Intelligenz, um extrem schnelle und effiziente Berechnungen durchzuführen. Durch die Nutzung von Quantencomputern kann Quantum AI komplexe Probleme lösen, die für klassische Computer zu schwierig wären. Diese Technologie befindet sich noch in einem frühen Entwicklungsstadium, bietet aber das Potenzial, die Leistung von KI-Systemen dramatisch zu verbessern.
Der Prozess des Schlussfolgerns basierend auf Beweisen und logischen Argumenten.
Ein speziell für die Verarbeitung sequenzieller Daten entwickeltes neuronales Netzwerk, das Rückkopplungsverbindungen verwendet, um dem Netzwerk zu ermöglichen, frühere Informationen zu speichern und zu nutzen.
Eine maschinelles Lernen-Technik, die dazu verwendet wird, einen kontinuierlichen numerischen Wert basierend auf einer Reihe von Eingabefeatures vorherzusagen.
Eine Art des maschinellen Lernens, bei der ein Agent durch Versuch und Irrtum lernt, indem er mit seiner Umgebung interagiert und Belohnungen oder Bestrafungen für seine Handlungen erhält.
Eine Art von Maschinelles Lernen Technik, bei der ein Künstliche Intelligenz (KI) System von dem Feedback oder Belohnungen lernt, die von einem menschlichen Nutzer oder Trainer bereitgestellt werden.
Reinforcement Learning ist eine Methode, bei der ein Agent durch Versuch und Irrtum lernt, optimale Entscheidungen zu treffen. Man kann es sich wie einen Hundetrainer vorstellen, der einem Hund neue Tricks beibringt, indem er Belohnungen (Leckerlis) für gutes Verhalten gibt.
Die Funktion, die die Belohnung oder die Bestrafung definiert, die ein Agent für seine Aktionen in einem Verstärkungslernproblem erhält.
Studie und Anwendung von Robotern und Automatisierung.
Ein Verstärkungs-Lern-Algorithmus, der eine Aktions-Wert-Funktion lernt, indem er den erwarteten Belohnung und den Wert der nächsten Aktion verwendet, anstatt der endgültigen Belohnung wie beim Q-Lernen.
Eine Erweiterung des World Wide Web, die es Maschinen ermöglicht, die Bedeutung der Daten im Web zu verstehen.
Stabile Diffusion ist ein Text-zu-Bild-Modell, das auf Deep Learning basiert und auf Basis von Textbeschreibungen hochdetaillierte Bilder erzeugen kann.
Der Prozess des Transformierens der Werte eines Merkmals oder eines Datensatzes, damit sie einen Mittelwert von Null und eine Varianz von Eins haben.
Der Satz aller möglichen Zustände in einem Reinforcement Learning-Problem.
Der Bewegung des Agenten von einem Zustand in einen anderen Zustand in einem Verstärkungslernproblem, basierend auf einer Aktion und den Übergangs-Wahrscheinlichkeiten der Umgebung.
Der Prozess des Übertragens des Stils eines Bildes auf ein anderes Bild, während der Inhalt des zweiten Bildes erhalten bleibt.
Der Prozess des Erhöhens der Auflösung eines Bildes oder Videos durch Ausfüllen der fehlenden Details.
Ein maschinelles Lernverfahren, das für Klassifizierungs- und Regressionsaufgaben verwendet wird.
Ein Verstärkungslernalgorithmus, der den temporalen Differenzfehler, den Unterschied zwischen der geschätzten und der tatsächlichen zukünftigen Belohnung, nutzt, um die Aktionswertfunktion zu aktualisieren.
Ein maschinelles Lernsystem, das Bilder auf Basis von natürlichen Sprachbeschreibungen erzeugt.
Training bezieht sich auf den Prozess des Lernens aus Daten, um die Leistung eines Modells oder Systems zu verbessern. Training ist ein grundlegender Bestandteil des Maschinellen Lernens und beinhaltet das Füttern eines Modells mit einem Datensatz und das Anpassen seiner Parameter oder Gewichte, um seine Leistung für eine spezifische Aufgabe zu optimieren.
Die Sequenz von Zuständen und Aktionen, die ein Agent in einem Verstärkungslernproblem befolgt.
Eine maschinelle Lernmethode, bei der ein Modell, das für eine Aufgabe trainiert wurde, für eine ähnliche Aufgabe feinjustiert oder angepasst wird.
Eine Bedingung, in der ein maschinelles Lernmodell sowohl auf den Trainings- als auch auf den neuen, unbekannten Daten schlecht abschneidet, aufgrund der Einfachheit, die es nicht vermag, die zugrunde liegenden Muster in den Daten zu erfassen.
Ein Verstärkungslernalgorithmus, der den Wertfunktion iterativ verbessert, bis sie sich auf die optimale Wertfunktion konvergiert.
Ein Typ eines generativen Modells, bestehend aus einem Kodierer-Netzwerk, das die Eingabedaten in eine latente Darstellung abbildet, und einem Dekodierer-Netzwerk, das die latente Darstellung wieder in den ursprünglichen Datenraum zurückmappt.
Eine Vektordatenbank ist ein spezialisiertes Speichersystem, das Daten in Form von Vektoren speichert und abfragt. Vektoren sind mathematische Darstellungen von Informationen, wie Texten oder Bildern, in einem mehrdimensionalen Raum. Stellen Sie sich eine Vektordatenbank wie ein riesiges Schachbrett vor, auf dem jeder Punkt eine Information darstellt, die anhand ihrer Eigenschaften (wie Farbe, Größe, Bedeutung) an einer bestimmten Position liegt. Solche Datenbanken sind besonders hilfreich bei der Suche nach ähnlichen Daten, z. B. wenn ein Bild gesucht wird, das einem hochgeladenen Foto ähnlich ist.
Vektoren sind Zahlenreihen, die verwendet werden, um komplexe Daten wie Sprache oder Bilder in einer numerischen Form darzustellen. Diese Form ermöglicht es Computern, Ähnlichkeiten und Muster zu erkennen. Stellen Sie sich Vektoren wie GPS-Koordinaten vor. Jeder Punkt im Raum repräsentiert ein spezifisches Objekt oder Konzept, und die Distanz zwischen den Punkten gibt an, wie ähnlich sie sich sind. Wenn zwei Texte fast identisch sind, liegen ihre Vektoren sehr nahe beieinander.
Yi ist eine Reihe offener Basis‑ und Chatmodelle, die in Varianten mit 6 B und 34 B Parametern entwickelt wurden. Durch weiteres Pre‑training wurden daraus Chat‑Modelle, Vision‑Language‑Modelle und Langkontext‑Modelle. Letztere können Sequenzen bis zu 200 K Tokens verarbeiten – ein erheblicher Sprung gegenüber typischen 4K‑ oder 8K‑Fenstern. Yi‑Modelle wurden auf 3,1 Billionen Tokens englischer und chinesischer Texte trainiert und zeichnen sich durch hohe Datenqualität aus. Dadurch erreichen sie starke Leistungen auf Benchmarks wie MMLU und überzeugen in Tests zur menschlichen Präferenz. Vision‑Language‑Varianten kombinieren das Sprachmodell mit einem Vision‑Encoder, um Bilder zu interpretieren und zu beschreiben.