Die numerische Mathe beschreibt mit dem Ausdruck interpolieren (von Latein zwischen = zwischen und polieren = glatt streichen, schleifen) eine Aufgabenkomplex. Für gegebene diskrete Werte (z.B. Messwerte) ist eine kontinuierliche Funktionalität (die so genannte Interpolations- oder Interpolationsfunktion) zu finden, die diese auswertet. Es wird dann gesagt, dass die Funktionen die interpolieren.
Teilweise sind nur Einzelpunkte einer bestimmten Aufgabe bekannt, aber keine analytischen Beschreibungen der Aufgabe, mit denen sie an beliebiger Stelle auswertbar ist. Wenn man die Messpunkte durch eine (möglicherweise glatte) Krümmung miteinander verknüpfen könnte, wäre es möglich, die unbekannten Funktionen an den dazwischen liegenden Punkten abzuschätzen. Andernfalls wird eine schwer zu handhabende Aufgabe durch eine einfache angenähert.
Die Interpolationsfunktionen können diese Forderung nach Vereinfachung ausfüllen. Dieser Vorgang wird als Interpolations-Problem beschrieben. Abhängig von den Annäherungsfunktionen bekommen wir einen anderen Interpolanten. Das Interpolieren ist eine Form der Approximation: Die zu betrachtende Funktionalität wird durch die Interpolierfunktion in den Rasterpunkten und zumindest annähernd in den übrigen Stützpunkten nachgebildet. Zur Abschätzung werden zusätzliche Informationen über die Funktionsweise von f{\displaystyle f} verlangt.
Das ist der Unterschied zwischen diesen Methoden und der interpolierenden Methode. Das Problem der Interaktion ist die Auswahl des aj{\displaystyle a_{j}}, so dass ?(xi,a0,...,an)=fi{displaystyle ist \Phi (x_{i},\,\,a_{0},\ldots ,a_{n})=f_{i}}.
Wir sprechen von einem Problem der Linearinterpolation, wenn ? \displaystyle \Phi }} nur geradlinig vom aj{displaystyle a_{j}} abhängig ist, d.h. Sonderfälle für n=1{\displaystyle n=1}, n=2{displaystyle n=2} und n=3{displaystyle n=3} werden geradlinige, rechteckige und würfelförmige Interaktion genannt. Darüber hinaus ist die Trigonometrie eine Linearinterpolation: Die von Isaac Newton etablierte Linearinterpolation ist die einfachste und wird in der Regel am meisten verwendet.
Für ausführliche Erklärungen s. General linear interpolation. p(x)=?i=0nfi?k=0,k?inx-xkxi-xk{\displaystyle p(x)=\sum _{i=0}^{n}{f_{i}\prod _{k=0,k\neq i}^{n} {\frac {x-x_{k}} {x_{}-x_{i}-x_{k_{k}}}. Dort finden Sie weitere Prozeduren zur polynomialen Unterteilung. Weil das Polynom mit zunehmender Gradzahl immer unstabiler wird, d.h. zwischen den Stützpunkten kräftig oszilliert, werden kaum noch Polarisationspolynome mit einem Wert über 5 verwendet. Sie interpolieren einen großen Datenbestand Stück für Stück.
Bei linearer Linearinterpolation wäre dies ein Vieleckverlauf, bei einem Polynom des Grades 2 oder 3 wird dies in der Regel als Splineinterpolation bezeichnet. Für die in Abschnitten definierte interpolierende Komponente ist die Konsistenz und Unterscheidbarkeit an den Stützpunkten von großer Wichtigkeit. Sollen neben den Rasterpunkten xi{\displaystyle x_{i}} auch die k{displaystyle k} Derivate f (k)(xi)=fi(k){\displaystyle f^{(k)}(x_{i})=f_{_{i}^{(k)}} interpoliert werden, wird von einem Interpolationsproblem der Hermite gesprochen.
Es wird davon ausgegangen, dass die Rasterpunkte xi{\displaystyle x_{i}} im Intervall[0;2?]{\displaystyle[0;\,2\pi ]}} gleich weit auseinander liegen und außerhalb dieses Intervalls zyklisch sind. In logarithmischer Interaktion sind zwei der bekannten Punkte f0(x0){\displaystyle f_{0}(x_{0})} und f1(x1){\displaystyle f_{1}(x_{1})} durch eine logarithmische Kennlinie miteinander verknüpf.
Eine sehr vielseitige und universelle Methode der interpolierenden Methode ist die Gaußsche Prozessregression oder die Kriging-Methode. Dies ermöglicht sowohl sanfte als auch regelmäßige interpolierende oder glättende Operationen in jeder Dimension. Mit Hilfe einer so genannten Kovarianz-Funktion können die besonderen Dateneigenschaften dargestellt werden, um die für das jeweilige Fragestellung optimierte Interaktion durchzusetzen. Die Interpolations-Methode: G(x,y):=H(x)-H(y)x-y{\displaystyle G(x,y):={\frac {H(x)-H(y)}{x-y}} und weiter zu G(x,x):=H?(x){\displaystyle G(x,x):=H'(x)}.
Die Interpolationsmethode, die sich aus h(x)=x{{\displaystyle h(x)=x} ergibt, ist die Lagrange-Interpolation. Weitere Anwendungsbeispiele sind h(x)=x/(1+x2){\displaystyle h(x)=x/(1+x^{2})} für Interpolations-Funktionen, die bei Unendlichkeit gegen Null fallen oder h(x)=sin(x){\displaystyle h(x)=\sin(x)} für eine begrenzte Interpolations-Funktion mit einer klaren Umrechnungsformel. Die Polynome für n {\displaystyle n} bewerten xi{\displaystyle x_{i}} mit 0?i?n-1{\displaystyle 0\leq i\leq n-1} und i?N{\displaystyle i\mathbb {N}.
Die beiden Vektorpaare ((x0,....,xn-1),(y0,...,yn-1)){darstellungsstil ((x_{0},\dotsc ,x_{n-1})),(y_{0},\dotsc ,y_{n-1}))} nennt man die Gitterdarstellung des polynomialen p {\displaystyle p}. Von besonderer Wichtigkeit ist daher die Umwandlung von der Koeffizienten- in die Gitterdarstellung, die als Fouriertransformation bekannt ist. Der umgekehrte Übergang wird durch Interpolieren erzielt. Bei vielen Interpolationsmethoden wird die Behauptung aufgestellt, dass aus vorhandenen Informationen durch interpolieren neue Informationen gewonnen werden.
Lediglich der Ablauf einer fortlaufenden Messung zwischen definierten Messpunkten kann durch Interpolieren errechnet werden. Die Schätzung geht in der Regel davon aus, dass der Kurs relativ "glatt" ist, was in den meisten FÃ?llen zu realistischen Ergebnissen fÃ?hrt. Höherfrequente Komponenten, die bei der Signaldigitalisierung durch den Abtasttheorem abhanden gekommen sind, können durch nachfolgende Interpolationen nicht mehr nachgebaut werden.
Ein bekanntes Einsatzgebiet der interpolierenden Verfahren ist die Verarbeitung digitaler Signale. Beim Umsetzen eines Signales von einer kleinen Abtastfrequenz in eine große Abtastfrequenz (siehe Sample Rate Conversion) werden die Samples des Ausgangssignals von denen des Eingangssignals umgerechnet.