Ajuste de datos. Regresión

Regresión lineal

Abordaremos en esta página las distribuciones bidimensionales. Las observaciones se dispondrán en dos columnas, de modo que en cada fila figuren la abscisa x y su correspondiente ordenada y. La importancia de las distribuciones bidimensionales radica en investigar como influye una variable sobre la otra. Esta puede ser una dependencia causa efecto, por ejemplo, la cantidad de lluvia (causa), da lugar a un aumento de la producción agrícola (efecto). O bien, el aumento del precio de un bien, da lugar a una disminución de la cantidad demandada del mismo.

Si utilizamos un sistema de coordenadas cartesianas para representar la distribución bidimensional, obtendremos un conjunto de puntos conocido con el diagrama de dispersión, cuyo análisis permite estudiar cualitativamente, la relación entre ambas variables. El siguiente paso, es la determinación de la dependencia funcional entre las dos variables x e y que mejor ajusta a la distribución bidimensional. Se denomina regresión lineal cuando la función es lineal, es decir, requiere la determinación de dos parámetros: la pendiente y la ordenada en el origen de la recta de regresión, y=ax+b.

La regresión nos permite además, determinar el grado de dependencia de las series de valores X e Y, prediciendo el valor y estimado que se obtendría para un valor x que no esté en la distribución.

Vamos a determinar la ecuación de la recta que mejor ajusta a los datos representados en la figura. Se denomina error εi a la diferencia yi-y, entre el valor observado yi, y el valor ajustado y= axi+b, tal como se ve en la figura inferior. El criterio de ajuste se toma como aquél en el que la desviación cuadrática media sea mínima, es decir, debe de ser mínima la suma

E= 1 n ε i 2 = 1 n ( y i (a x i +b) ) 2

El extremos de una función: máximo o mínimo se obtiene cuando las derivadas de E respecto de a y de b sean nulas. Lo que da lugar a un sistema de dos ecuaciones con dos incógnitas del que se despeja a y b.

E a =0 E b =0 a= n 1 n x i y i ( 1 n x i )( 1 n y i ) n 1 n x i 2 ( 1 n x i ) 2 b= 1 n y i a 1 n x i n

Expresiones más elaboradas nos permiten determinar el error de a, Δa y el error de b, Δb

Δa= n σ n 1 n x i 2 ( 1 n x i ) 2 σ= 1 n ( y i a x i b ) 2 n2 Δb=Δa 1 n x i 2 n

La pendiente de la recta se escribirá a±Δa, y la ordenada en el origen b±Δb. Véase las reglas para expresar una medida y su error de una magnitud.

El coeficiente de correlación es otro parámetro para el estudio de una distribución bidimensional, que nos indica el grado de dependencia entre las variables X e Y. El coeficiente de correlación r es un número que se obtiene mediante la fórmula.

r= 1 n ( x i <x>)( y i <y>) 1 n ( x i <x>) 2 1 n ( y i <y>) 2

El numerador es el producto de las desviaciones de los valores X e Y respecto de sus valores medios. En el denominador tenemos las desviaciones cuadráticas medias de X y de Y.

El coeficiente de correlación puede valer cualquier número comprendido entre -1 y +1.

Ejemplo

Un vehículo que se mueve supuestamente con velocidad constante. Los datos de las medidas del tiempo en cuatro posiciones separadas 900 m  son las siguientes

Tiempo t (s) Posición x (m)
17.6 0
40.4 900
67.7 1800
90.1 2700

Ajustar los datos a la línea recta

x=x0+vt

y estimar el mejor valor de la velocidad v aplicando el procedimiento de mínimos cuadrados

function [a b]=regresion(x,y)
    n=length(x);
    a=zeros(2,1);
    b=zeros(2,1);
    
    %pendiente de la recta de regresión, a
    a(1)=(n*sum(x.*y)-sum(x)*sum(y))/(n*sum(x.^2)-sum(x)*sum(x));
    %ordenada en el origen, b
    b(1)=(sum(y)-a(1)*sum(x))/n;
   
    % errores de a y de b
    sd2=sum((y-a(1)*x-b(1)).^2);
    a(2)=sqrt(sd2/(n-2))/sqrt(sum(x.^2)-sum(x)*sum(x)/n);
    b(2)=sqrt(sum(x.^2)/n)*a(2);
end

Escribimos un script para calcular la pendiente a de la recta de regresión, su error Δa, la ordenada en el origen b y su error Δb.

t=[17.6 40.4 67.7 90.1];
x=[0 900 1800 2700];
[a b]=regresion(t,x);
fprintf('pendiente a= %2.3f, error %1.3f\n',a(1),a(2));
fprintf('ordenada b= %3.3f, error %3.3f\n',b(1),b(2));

%gráfica
plot(t,x,'ro','markersize',8,'markerfacecolor','r')
tmin=min(t);
xmin=a(1)*tmin+b(1);
tmax=max(t);
xmax=a(1)*tmax+b(1);
line([tmin tmax],[xmin xmax]); %recta
xlabel('t')
ylabel('x')
grid on
title('Regresión lineal')

En la ventana de comandos corremos el script

pendiente a= 36.710, error 1.001
ordenada b= -630.509, error 60.580

Queda como trabajo al lector calcular el coeficiente de correlación. Solución r=0.99926

Ajuste no lineal, que se transforma en regresión lineal

Estudiamos algunos ejemplos de ajuste a funciones no lineales, que se pueden transformar en ajuste a una función lineal, mediante un cambio de variable

La función potencial

y=b·xa

Se puede trasformar en

log(y)=log(x)+log(b)

Si usamos las nuevas variables X=log(x) e Y=log(y), obtenemos la relación lineal

Y=AX+B.

Donde B=log(b)

Ejemplo:

x 10 20 30 40 50 60 70 80
y 1.06 1.33 1.52 1.68 1.81 1.91 2.01 2.11

Representamos estos datos en un diagrama doblemente logarítmico mediante el comando loglog

x=[10 20 30 40 50 60 70 80];
y=[1.06 1.33 1.52 1.68 1.81 1.91 2.01 2.11];
loglog(x,y,'ro','markersize',4,'markerfacecolor','r')
xlabel('x')
ylabel('y')
grid on
title('Función potencial')

Para determinar la recta de regresión, se transforma esta tabla de datos en esta otra

X=log(x) 1.0 1.30 1.477 1.60 1.699 1.778 1.845 1.903
Y=log(y) 0.025 0.124 0.182 0.225 0.258 0.281 0.303 0.324

Calculamos mediante la función regresion los parámetros A y B.

x=[10 20 30 40 50 60 70 80];
y=[1.06 1.33 1.52 1.68 1.81 1.91 2.01 2.11];
[A,B]=regresion(log10(x),log10(y));
fprintf('exponente a= %2.3f\n',A(1));
fprintf('coeficiente b= %3.3f\n',10^B(1));

%gráfica
hold on
plot(x,y,'ro','markersize',4,'markerfacecolor','r')
z=@(x) (10^B(1))*x.^A(1);
fplot(z,[x(1),x(end)])
grid on
xlabel('x')
ylabel('y')
title('Regresión potencial')
hold off

Corremos el script en la ventana de comandos

exponente a= 0.331
coeficiente b = 0.495

Función exponencial

y=b·eax

Tomando logaritmos neperianos en los dos miembros resulta

ln y=ax+ln(b)

Si ponemos ahora X=x, e Y=ln(y), obtenemos la relación lineal

Y=AX+B

Donde B=ln(b).

Ejemplo:

x 12 41 93 147 204 264 373 509 773
y 930 815 632 487 370 265 147 76 17

Representamos estos datos en un diagrama semilogarítmico mediante el comando semilogy

x=[12 41 93 147 204 264 373 509 773];
y=[930 815 632 487 370 265 147 76 17];
semilogy(x,y,'ro','markersize',4,'markerfacecolor','r')
xlabel('x')
ylabel('y')
title('Función exponencial')
grid on

Para determinar la recta de regresión, se transforma esta tabla de datos en esta otra

X=x 12 41 93 147 204 264 373 509 773
Y=ln(y) 6.835 6.703 6.449 6.188 5.913 5.580 4.990 4.330 2.833
x=[12 41 93 147 204 264 373 509 773];
y=[930 815 632 487 370 265 147 76 17];
[A,B]=regresion(x,log(y));
fprintf('exponente a= %2.3f\n',A(1));
fprintf('coeficiente b = %3.3f\n',exp(B(1)));

hold on
plot(x,y,'ro','markersize',4,'markerfacecolor','r')
z=@(x) exp(B(1))*exp(x*A(1));
fplot(z,[x(1),x(end)])
xlabel('x')
ylabel('y')
grid on
title('Regresión exponencial')
hold off

Corremos el script en la ventana de comandos

exponente a= -0.005
coeficiente b = 1036.896

Otros ajustes a funciones no lineales que se transforman en una función lineal

En la tabla, se proporciona una lista de funciones no lineales que se pueden transformar en la función lineal Y=AX+B mediante un cambio de variable. Haciendo la sustitución obtenemos mediante el procedimiento de regresión lineal los parámetros A y B y a partir de ellos, los parámetros a y b de la función no lineal

Función no lineal SustituciónParámetros A y B
y=a/x+bX=1/x, Y=yA=a, B=b
y=b/(x+a)Y=1/y, X=xA=1/b, B=a/b
y=c-b·exp(-ax)Y=ln(c-y), X=xA=-a, B=lnb
y=a·bxY=ln(y), X=xA=lnb, B=lna
y=ax·exp(bx)Y=ln(c/x), X=xA=b, B=lna
y=c/(1+b·exp(ax))Y=ln(c/y-1), X=xA=a, B=lnb
y=a·lnx+bY=y, X=lnxA=a, B=b

Polinomio aproximador

Supongamos que hemos medido un conjunto de pares de datos (xi, yi) en una experiencia, por ejemplo, la posición de un móvil en ciertos instantes de tiempo.

Queremos obtener una función y=f(x) que se ajuste lo mejor posible a los valores experimentales. Se pueden ensayar muchas funciones, rectas, polinomios, funciones potenciales o logarítmicas.

Una vez establecido la función a ajustar se determinan sus parámetros, en el caso de un polinomio, serán los coeficientes del polinomio de modo que los datos experimentales se desvíen lo menos posible de la fórmula empírica. La función más sencilla es la función lineal y=ax+b, que hemos descrito en la sección anterior

Queremos aproximar un polinomio de grado n, a un conjunto de m pares de datos (xj, yj) de modo que n<m. Sea el polinomio

P(x)=a1xn+a2xn-1+...anx+an+1

Se calcula la cantidad

S= j=1 m ( P( x j ) y j ) 2 = j=1 m ( a 1 x j n + a 2 x j n1 + a n x j + a n+1 y j ) 2

Para obtener los valores de los coeficientes del polinomio aproximador se tienen que determinar los valores de los coeficientes a1, a2, a3, ...an, an+1 de forma que la cantidad S tome un valor mínimo.

Hagamos las derivadas parciales de S respecto de a1, a2, a3, ...an, an+1 iguales a cero

1 2 S a 1 = j=1 m ( a 1 x j n + a 2 x j n1 + a n x j + a n+1 y j ) x j n 1 2 S a 2 = j=1 m ( a 1 x j n + a 2 x j n1 + a n x j + a n+1 y j ) x j n1 .................................... 1 2 S a n = j=1 m ( a 1 x j n + a 2 x j n1 + a n x j + a n+1 y j ) x j 1 2 S a n+1 = j=1 m ( a 1 x j n + a 2 x j n1 + a n x j + a n+1 y j )

Obtenemos un sistema de n+1 ecuaciones con n+1 incógnitas, a1, a2, a3, ...an, an+1

( j=1 m x j 2n ) a 1 +( j=1 m x j 2n1 ) a 2 +...+( j=1 m x j n+1 ) a n +( j=1 m x j n ) a n+1 = j=1 m y j x j n ( j=1 m x j 2n1 ) a 1 +( j=1 m x j 2n2 ) a 2 +...+( j=1 m x j n ) a n +( j=1 m x j n1 ) a n+1 = j=1 m y j x j n1 ......... ( j=1 m x j n ) a 1 +( j=1 m x j n1 ) a 2 +...+( j=1 m x j ) a n +m a n+1 = j=1 m y j

Escribimos el sistema de ecuaciones, en forma matricial

( x 1 n x 2 n x 3 n ... x m n x 1 n1 x 2 n1 x 3 n1 ... x m n1 x 1 n2 x 2 n2 x 3 n2 ... x m n2 ... ... ... ... ... 1 1 1 ... 1 )( x 1 n ... x 1 2 x 1 1 x 2 n ... x 2 2 x 2 1 x 3 n ... x 3 2 x 3 1 ... ... ... ... ... x m n ... x m 2 x m 1 )( a 1 a 2 a 3 ... a n+1 ) =( x 1 n x 2 n x 3 n ... x m n x 1 n1 x 2 n1 x 3 n1 ... x m n1 x 1 n2 x 2 n2 x 3 n2 ... x m n2 ... ... ... ... ... 1 1 1 ... 1 )( y 1 y 2 y 3 ... y m ) ( V T V )a= V T y

Donde V es una matriz del tipo Vandermonde

Ejemplo

Una experiencia que se puede llevar a cabo con la ayuda de un cronómetro es la de establecer una relación entre la lectura n del contador del reproductor de la casete y el tiempo t transcurrido. Vamos a comprobar que esta relación no es lineal

Se sugiere al lector que analice el comportamiento de su reproductor de casete y complete una tabla como la siguiente, y represente los datos en una gráfica semejante a la figura más abajo

n/100 0 1 2 3 4 5 6 7 7.44
t(min) 0 4.03 8.12 14.23 20.33 27.1 34.53 42.63 46.43

Ajustar el conjunto de pares de datos de la tabla de la derecha a un polinomio de segundo grado a1x2+a2x+a3.

x=[0,1,2,3,4,5,6,7,7.44];
y=[0,4.03,8.12,14.23,20.33,27.1,34.53,42.63,46.43];
n=2; %polinomio de segundo grado
V=zeros(length(x),n+1);
for i=1:n+1
    V(:,i)=x.^(n+1-i);
end
p=(V'*V)\(V'*y');

%gráficos
hold on
plot(x,y,'bo', 'markersize',4,'markeredgecolor','b','markerfacecolor','b')
f=@(x) polyval(p,x);
fplot(f,[x(1),x(end)],'r')
xlabel('x')
ylabel('y')
grid on
title('Polinomio aproximador')
hold off

En la ventana de comandos corremos el script y nos aparece el vector p que contiene los coeficientes a1,a2, a3 del polinomio

p =
    0.3446
    3.7004
   -0.1188

Alternativamente, escribimos el sistema de ecuaciones

{ s 1 a 1 + s 2 a 2 +.... s n a n + s n+1 a n+1 = b 1 s 2 a 1 + s 3 a 2 +.... s n+1 a n + s n+2 a n+1 = b 2 ....... s n+1 a 1 + s n+2 a 2 +.... s 2n a n + s 2n+1 a n+1 = b n+1 s k = j=1 m x j 2n+1k k=1...2n+1 b k = j=1 m y j x j n+1k k=1...n+1

En forma matricial

( s 1 s 2 ... s n s n+1 s 2 s 3 .... s n+1 s n+2 ... ... ... ... ... s n s n+1 ... s 2n1 s 2n s n+1 s n+2 ... s 2n s 2n+1 )( a 1 a 2 ... a n a n+1 )=( b 1 b 2 ... b n b n+1 )

function p=pol_regresion(x,y,n) 
    s=zeros(2*n+1,1);
    b=zeros(n+1,1);
    A=zeros(n+1);
    for k=1:2*n+1
        s(k)=sum(x.^(2*n+1-k));
    end
    %elementos de la matriz A de las incógnitas
    for i=1:n+1
        for j=1:n+1 
            A(i,j)=s(i+j-1);
        end
    end
    %vector de los términos independientes
    for k=1:n+1
        b(k)=sum(y.*x.^(n+1-k));
    end
    %coeficientes del polinomio a1, a2... an, an+1
    p=A\b; 
end

A la función pol_regresion se le pasa los vectores x e y de datos el grado n del polinomio aproximador y devuelve los coeficientes del polinomio en el vector columna p.

La función calcula los elementos de la matriz A de las incógnitas, el vector b de los términos independientes y resuelve el sistema de n+1 ecuaciones con n+1 incógnitas mediante el operador división por la izquierda \.

Creamos un script con los datos y llamamos a la función pol_regresion

x=[0,1,2,3,4,5,6,7,7.44];
y=[0,4.03,8.12,14.23,20.33,27.1,34.53,42.63,46.43];
p=pol_regresion(x,y,2)

%gráficos
hold on
plot(x,y,'ro','markersize',4,'markerfacecolor','r')
y=@(x) polyval(p,x);
fplot(y,[x(1),x(end)])
xlabel('x')
ylabel('y')
grid on
title('Polinomio aproximador')
hold off