Statistik, abgeleitet vom lateinischen statisticum, befasst sich mit dem Sammeln und Auswerten von Daten. Sie bildet die Grundlage vieler Entscheidungen und ist ein zentraler Teil der Mathematik.
Die Probabilistik, auch Wahrscheinlichkeitstheorie genannt, untersucht Zufallsvorgänge und ist Teil der Stochastik - der Mathematik der Daten und des Zufalls. Der Begriff stammt aus dem Altgriechischen und bedeutet Kunst des Vermutens.
Ein Optimierungsproblem beschreibt mathematisch, wie ein Problem auf die bestmögliche Lösung hin optimiert werden kann. Es geht darum, die besten Ergebnisse bei gegebenen Bedingungen zu finden.
Die von Brook Taylor (1685-1731) entwickelte Reihenentwicklung dient dazu, Funktionen in der Umgebung eines Punktes durch Polynome zu approximieren. Es ist sehr interessant zu sehen, wie dieses Verfahren funktioniert und warum.
Das Gradientenverfahren wird in der Numerik zur Lösung nichtlinearer Optimierungsprobleme ohne Nebenbedingungen verwendet. Es wird auch als Verfahren des steilsten Abstiegs bezeichnet.
Die Sigmoid-Funktion ist eine der bekanntesten Funktionen der Mathematik. Mit ihrer S-Kurve wandelt sie beliebige Werte in einen begrenzten Bereich zwischen 0 und 1 um - eine Eigenschaft, wesegen sie gerne in neuronalen Netzen verwendet wird.
Ein Perceptron ist das mathematische Modell eines menschlichen Neurons. Mehrere solcher künstlichen Neuronen bilden zusammen einen Layer, der die Grundlage für künstliche Intelligenz bildet.
Das Multi-Layer Perceptron ist das Fundament moderner künstlicher Intelligenz. Als einfaches, aber leistungsstarkes neuronales Netzmodell lernt es komplexe Zusammenhänge aus Daten - Schicht für Schicht.
Die Faltung (engl. Convolution) ist ein mathematischer Operator, der oft auch als Konvolution bezeichnet wird. Der Begriff stammt vom lateinischen convolvere und bedeutet zusammenrollen.
Der Markow Process ist ein stochastischer Prozess, benannt nach dem russischen Mathematiker Andrei Markow. In der Literatur wird er auch als Markow-Kette bezeichnet und bildet die Grundlage für viele Methoden im Reinforcement Learning.
Der Markov Reward Process erklärt, wie Systeme Entscheidungen treffen und Belohnungen erhalten - ein Schlüsselelement auf dem Weg zu künstlicher Intelligenz.
Der Markov Decision Process modelliert, wie intelligente Systeme auf Zustände reagieren, Aktionen wählen und langfristige Belohnungen maximieren - essenziell für KI und Reinforcement Learning.
Automatisches Differenzieren (engl. Automatic Differentiation) ist eine Methode, mit der sich Ableitungen automatisch berechnen lassen. Sie ermöglicht es, Ableitungen von Funktionen effizient durch Computerprogramme zu berechnen, ohne dass diese manuell bestimmt werden müssen.