Método de Newton
En análisis numérico, el método de Newton (conocido también como el método de Newton-Raphson o el método de Newton-Fourier) es un algoritmo para encontrar aproximaciones de los ceros o raíces de una función real. También puede ser usado para encontrar el máximo o mínimo de una función, encontrando los ceros de su primera derivada.
Historia
editarEl método numérico de Newton fue descrito por Sir Isaac Newton en De analysi per aequationes numero terminorum infinitas ('Sobre el análisis mediante ecuaciones con un número infinito de términos', escrito en 1669, publicado en 1711 por William Jones) y en De metodis fluxionum et serierum infinitarum (escrito en 1671, traducido y publicado como Método de las fluxiones en 1736 por John Colson). Sin embargo, su descripción difiere en forma sustancial de la descripción moderna presentada más arriba: Newton aplicaba el método solo a polinomios, y no consideraba las aproximaciones sucesivas xn, sino que calculaba una secuencia de polinomios para llegar a la aproximación de la raíz x. Finalmente, Newton ve el método como puramente algebraico y falla al no ver la conexión con el cálculo.
Isaac Newton probablemente derivó su método de forma similar aunque menos precisa del método de François Viète. La esencia del método de Viète puede encontrarse en el trabajo del matemático persa Sharaf al-Din al-Tusi.
El método de Newton-Raphson es llamado así por el matemático inglés Joseph Raphson (contemporáneo de Newton) se hizo miembro de la Royal Society en 1691 por su libro Aequationum Universalis, publicado en 1690, que contenía este método para aproximar raíces. Newton en su libro Método de las fluxiones describe el mismo método, en 1671, pero no fue publicado hasta 1736, lo que significa que Raphson había publicado este resultado 46 años antes. Aunque no fue tan popular como los trabajos de Newton, se le reconoció posteriormente.
Descripción del método
editarEl método de Newton es un método abierto, en el sentido de que no está garantizada su convergencia global. La única manera de alcanzar la convergencia es seleccionar un valor inicial lo suficientemente cercano a la raíz buscada. Así, se ha de comenzar la iteración con un valor razonablemente cercano al cero (denominado punto de arranque o valor supuesto). La relativa cercanía del punto inicial a la raíz depende mucho de la naturaleza de la propia función; si presentara múltiples puntos de inflexión o pendientes grandes en el entorno de la raíz, entonces las probabilidades de que el algoritmo diverja aumentan. La divergencia se evita si se selecciona un valor inicial cercano a la raíz. Una vez iniciado el procedimiento a partir de un valor de x asumido como raíz presunta, el método prosigue trazando la recta tangente a la función en el valor x de la presunta raíz. La abscisa al origen de la intersección de esa recta con el eje x sería una mejor aproximación a la raíz que el valor anterior. Se realizarán sucesivas iteraciones acorde al método, hasta alcanza suficiente convergencia.
Sea una función derivable definida en el intervalo real . La versión más básica consiste en iniciar el procedimiento con una función real, su derivada ( denota la derivada de ) y un intento inicial para el cero de la función. Si f presenta un intento inicial válido, es un valor cercano y pasamos, entonces a
como una mejor aproximación a la raíz que . Geométricamente, es el punto de intersección con el eje x de la tangente del trazo de la función f y (surgida de la aproximación lineal de f), sería un mejor intento como raíz que la del inicial, . El proceso se reitera como
hasta alcanzar un valor suficientemente preciso. El número de dígitos correctos, aproximadamente se duplica en cada paso. Este algoritmo puede extenderse a funciones complejas y a sistemas de ecuaciones.
En síntesis, empezamos con un valor inicial y cada paso sucesivo sería -acorde a un número natural - el anotado como:
Donde denota la derivada de .
Nótese que el método descrito es de aplicación exclusiva para funciones de una sola variable con forma analítica o implícita conocible. Existen variantes del método aplicables funciones complejas, a la estimación de raíces de la tendencia de sistemas discretos, así como algoritmos que extienden el método de Newton a sistemas multivariables, sistemas de ecuaciones, etcétera.
Obtención del algoritmo
editarTres son las formas principales por las que tradicionalmente se ha obtenido el algoritmo de Newton-Raphson.
La primera de ellas es una simple interpretación geométrica. En efecto, atendiendo al desarrollo geométrico del método de la secante, podría pensarse en que si los puntos de iteración están lo suficientemente cerca (a una distancia infinitesimal), entonces la secante se sustituye por la tangente a la curva en el punto. Así pues, si por un punto de iteración trazamos la tangente a la curva, por extensión con el método de la secante, el nuevo punto de iteración se tomará como la abscisa en el origen de la tangente (punto de corte de la tangente con el eje ). Esto es equivalente a linealizar la función, es decir, se reemplaza por una recta tal que contiene al punto ( , ( )) y cuya pendiente coincide con la derivada de la función en el punto, . La nueva aproximación a la raíz, , se logra de la intersección de la función lineal con el eje de abscisas. Matemáticamente:
En la ilustración adjunta del método de Newton se puede ver que es una mejor aproximación que para el cero (x) de la función .
Una forma alternativa de obtener el algoritmo es desarrollando la función en serie de Taylor, para un entorno del punto :
Si se trunca el desarrollo a partir del término de grado 2, y evaluamos en :
Si además se acepta que tiende a la raíz, se ha de cumplir que , luego, sustituyendo en la expresión anterior, obtenemos el algoritmo.
Finalmente, hay que indicar que el método de Newton-Raphson puede interpretarse como un método de iteración de punto fijo. Así, dada la ecuación , se puede considerar el siguiente método de iteración de punto fijo:
Se escoge h (x) de manera que ( es la raíz buscada). Dado que es:
Entonces:
Como no tiene que ser única, se escoge de la forma más sencilla:
Por tanto, imponiendo subíndices:
Expresión que coincide con la del algoritmo de Newton-Raphson
Convergencia del método
editarEl orden de convergencia de este método es, por lo menos, cuadrático. Sin embargo, si la raíz buscada es de multiplicidad algebraica mayor a uno (i.e, una raíz doble, triple, …), el método de Newton-Raphson pierde su convergencia cuadrática y pasa a ser lineal de constante asintótica de convergencia 1-1/m, con m la multiplicidad de la raíz.
Existen numerosas formas de evitar este problema, como pudieran ser los métodos de aceleración de la convergencia tipo Δ² de Aitken o el método de Steffensen.
Evidentemente, este método exige conocer de antemano la multiplicidad de la raíz, lo cual no siempre es posible. Por ello también se puede modificar el algoritmo tomando una función auxiliar g(x) = f(x)/f'(x), resultando:
Su principal desventaja en este caso sería lo costoso que pudiera ser hallar g(x) y g'(x) si f(x) no es fácilmente derivable.
Por otro lado, la convergencia del método se demuestra cuadrática para el caso más habitual sobre la base de tratar el método como uno de punto fijo: si g (r)=0, y g'(r) es distinto de 0, entonces la convergencia es cuadrática. Sin embargo, está sujeto a las particularidades de estos métodos.
Nótese de todas formas que el método de Newton-Raphson es un método abierto: la convergencia no está garantizada por un teorema de convergencia global como podría estarlo en los métodos de falsa posición o de bisección. Así, es necesario partir de una aproximación inicial próxima a la raíz buscada para que el método converja y cumpla el teorema de convergencia local.
Teorema de Convergencia Local del Método de Newton
editarSea . Si , y , entonces existe un tal que si , entonces la sucesión xn con verifica que:
- para todo y tiende a cuando tiende a infinito.
Si además , entonces la convergencia es cuadrática.
Teorema de Convergencia Global del Método de Newton
editarSea verificando:[1]
- para todo
- para todo
Entonces existe un único tal que por lo que la sucesión converge a .
Estimación del error
editarSe puede demostrar que el método de Newton-Raphson tiene convergencia cuadrática: si es raíz, entonces:
para una cierta constante . Esto significa que si en algún momento el error es menor o igual a 0,1, a cada nueva iteración doblamos (aproximadamente) el número de decimales exactos. En la práctica puede servir para hacer una estimación aproximada del error:
Error relativo entre dos aproximaciones sucesivas:
Con lo cual se toma el error relativo como si la última aproximación fuera el valor exacto. Se detiene el proceso iterativo cuando este error relativo es aproximadamente menor que una cantidad fijada previamente.
Ejemplo
editarConsideremos el problema de encontrar un número positivo tal que . Podríamos tratar de encontrar el cero de .
Sabemos que . Ya que para todo y para , deducimos que nuestro cero está entre 0 y 1. Comenzaremos probando con el valor inicial
Los dígitos correctos están subrayados. En particular, es correcto para el número de decimales pedidos. Podemos ver que el número de dígitos correctos después de la coma se incrementa desde 2 (para x3) a 5 y 10, ilustrando la convergencia cuadrática.
Conjunto de Operadores Fraccionales
editarEl cálculo fraccional de conjuntos (Fractional Calculus of Sets (FCS)), mencionado por primera vez en el artículo titulado "Sets of Fractional Operators and Numerical Estimation of the Order of Convergence of a Family of Fractional Fixed-Point Methods",[2] es una metodología derivada del cálculo fraccional.[3] El concepto principal detrás del FCS es la caracterización de los elementos del cálculo fraccional utilizando conjuntos debido a la gran cantidad de operadores fraccionales disponibles.[4][5][6] Esta metodología se originó a partir del desarrollo del método de Newton-Raphson fraccional [7] y trabajos relacionados posteriores.[8][9][10]
El cálculo fraccional, una rama de las matemáticas que trata con derivadas de orden no entero, surgió casi simultáneamente con el cálculo tradicional. Esta emergencia fue en parte debido a la notación de Leibniz para derivadas de orden entero: . Gracias a esta notación, L’Hopital pudo preguntar en una carta a Leibniz sobre la interpretación de tomar en una derivada. En ese momento, Leibniz no pudo proporcionar una interpretación física o geométrica para esta pregunta, por lo que simplemente respondió a L’Hopital en una carta que "... es una aparente paradoja de la cual, algún día, se derivarán consecuencias útiles".
El nombre "cálculo fraccional" se origina a partir de una pregunta histórica, ya que esta rama del análisis matemático estudia derivadas e integrales de un cierto orden . Actualmente, el cálculo fraccional carece de una definición unificada de lo que constituye una derivada fraccional. En consecuencia, cuando no es necesario especificar explícitamente la forma de una derivada fraccional, típicamente se denota de la siguiente manera:
Los operadores fraccionales tienen varias representaciones, pero una de sus propiedades fundamentales es que recuperan los resultados del cálculo tradicional a medida que . Considerando una función escalar y la base canónica de denotada por , el siguiente operador fraccional de orden se define utilizando notación de Einstein:[11]
Denotando como la derivada parcial de orden con respecto al componente -ésimo del vector , se define el siguiente conjunto de operadores fraccionales [12] [13]:
cuyo complemento es:
Como consecuencia, se define el siguiente conjunto:
Extensión a Funciones Vectoriales
editarPara una función , el conjunto se define como:
donde denota el -ésimo componente de la función .
Método de Newton-Raphson fraccional
editarSea una función con un punto tal que . Entonces, para algún y un operador fraccional , es posible definir un tipo de aproximación lineal de la función alrededor de de la siguiente manera:
lo cual se puede expresar de forma más compacta como:
donde denota una matriz cuadrada. Por otro lado, si y dado que , se infiere lo siguiente:
Como consecuencia, definiendo la matriz:
es posible definir el siguiente método iterativo fraccional:
que corresponde al caso más general del método de Newton-Raphson fraccional.
El uso de operadores fraccionales en métodos de punto fijo ha sido ampliamente estudiado y citado en diversas fuentes académicas. Ejemplos de esto se pueden encontrar en varios artículos publicados en revistas de renombre, como los que aparecen en ScienceDirect [14], [15], Springer [16], World Scientific [17], y MDPI [18], [19], [20], [21], [22], [23] , [24], [25] . También se incluyen estudios de Taylor & Francis (Tandfonline) [26] , Cubo [27] , Revista Mexicana de Ciencias Agrícolas [28], Journal of Research and Creativity [29], MQR [30] , y Актуальные вопросы науки и техники [31]. Estos trabajos destacan la relevancia y aplicabilidad de los operadores fraccionales en la resolución de problemas.
Véase también
editarReferencias
editar- ↑ Miguel Pasadas. Universidad de Granada, ed. «Tema 2 Resolución de Ecuaciones No Lineales».
- ↑ Sets of Fractional Operators and Numerical Estimation of the Order of Convergence of a Family of Fractional Fixed-Point Methods
- ↑ Applications of fractional calculus in physics
- ↑ A review of definitions for fractional derivatives and integral
- ↑ A review of definitions of fractional derivatives and other operators
- ↑ How many fractional derivatives are there?
- ↑ Fractional Newton-Raphson Method
- ↑ Acceleration of the order of convergence of a family of fractional fixed-point methods and its implementation in the solution of a nonlinear algebraic system related to hybrid solar receivers
- ↑ Code of a multidimensional fractional quasi-Newton method with an order of convergence at least quadratic using recursive programming
- ↑ Sets of Fractional Operators and Some of Their Applications
- ↑ Einstein summation for multidimensional arrays
- ↑ Torres-Hernandez, A.; Brambila-Paz, F. (29 de diciembre de 2021). «Sets of Fractional Operators and Numerical Estimation of the Order of Convergence of a Family of Fractional Fixed-Point Methods». Fractal and Fractional 5 (4): 240. doi:10.3390/fractalfract5040240.
- ↑ Acceleration of the order of convergence of a family of fractional fixed-point methods and its implementation in the solution of a nonlinear algebraic system related to hybrid solar receivers
- ↑ Shams, M.; Kausar, N.; Agarwal, P.; Jain, S. (2024). Fuzzy fractional Caputo-type numerical scheme for solving fuzzy nonlinear equations. Fractional Differential Equations. pp. 167-175. doi:10.1016/B978-0-44-315423-2.00016-3.
- ↑ Shams, M.; Kausar, N.; Agarwal, P.; Edalatpanah, S.A. (2024). Fractional Caputo-type simultaneous scheme for finding all polynomial roots. Recent Trends in Fractional Calculus and Its Applications. pp. 261-272. doi:10.1016/B978-0-44-318505-2.00021-0.
- ↑ Al-Nadhari, A.M.; Abderrahmani, S.; Hamadi, D.; Legouirah, M. (2024). «The efficient geometrical nonlinear analysis method for civil engineering structures». Asian Journal of Civil Engineering 25 (4): 3565-3573. doi:10.1007/s42107-024-00996-z.
- ↑ Shams, M.; Kausar, N.; Samaniego, C.; Agarwal, P.; Ahmed, S.F.; Momani, S. (2023). «On efficient fractional Caputo-type simultaneous scheme for finding all roots of polynomial equations with biomedical engineering applications». Fractals 31 (04): 2340075. doi:10.1142/S0218348X23400753.
- ↑ Wang, X.; Jin, Y.; Zhao, Y. (2021). «Derivative-free iterative methods with some Kurchatov-type accelerating parameters for solving nonlinear systems». Symmetry 13 (6): 943. doi:10.3390/sym13060943.
- ↑ Tverdyi, D.; Parovik, R. (2021). «Investigation of Finite-Difference Schemes for the Numerical Solution of a Fractional Nonlinear Equation». Fractal and Fractional 6 (1): 23. doi:10.3390/fractalfract6010023.
- ↑ Tverdyi, D.; Parovik, R. (2022). «Application of the fractional Riccati equation for mathematical modeling of dynamic processes with saturation and memory effect». Fractal and Fractional 6 (3): 163. doi:10.3390/fractalfract6030163.
- ↑ Srivastava, H.M. (2023). «Editorial for the Special Issue “Operators of Fractional Calculus and Their Multidisciplinary Applications”». Fractal and Fractional 7 (5): 415. doi:10.3390/fractalfract7050415.
- ↑ Shams, M.; Carpentieri, B. (2023). «Efficient inverse fractional neural network-based simultaneous schemes for nonlinear engineering applications». Fractal and Fractional 7 (12): 849. doi:10.3390/fractalfract7120849.
- ↑ Candelario, G.; Cordero, A.; Torregrosa, J.R.; Vassileva, M.P. (2023). «Solving Nonlinear Transcendental Equations by Iterative Methods with Conformable Derivatives: A General Approach». Mathematics 11 (11): 2568. doi:10.3390/math11112568.
- ↑ Shams, M.; Carpentieri, B. (2023). «On highly efficient fractional numerical method for solving nonlinear engineering models». Mathematics 11 (24): 4914. doi:10.3390/math11244914.
- ↑ Martínez, F.; Kaabar, M.K.A.; Martínez, I. (2024). «Novel Results on Legendre Polynomials in the Sense of a Generalized Fractional Derivative». Mathematical and Computational Applications 29 (4): 54. doi:10.3390/mca29040054.
- ↑ Shams, M.; Kausar, N.; Agarwal, P.; Jain, S.; Salman, M.A.; Shah, M.A. (2023). «On family of the Caputo-type fractional numerical scheme for solving polynomial equations». Applied Mathematics in Science and Engineering 31 (1): 2181959. doi:10.1080/27690911.2023.2181959.
- ↑ Nayak, S.K.; Parida, P.K. (2024). «Global convergence analysis of Caputo fractional Whittaker method with real world applications». Cubo (Temuco) 26 (1): 167-190. doi:10.56754/0719-0646.2601.167.
- ↑ Rebollar-Rebollar, S.; Martínez-Damián, M.Á.; Hernández-Martínez, J.; Hernández-Aguirre, P. (2021). «Óptimo económico en una función Cobb-Douglas bivariada: una aplicación a ganadería de carne semi extensiva». Revista mexicana de ciencias agrícolas 12 (8): 1517-1523. doi:10.29312/remexca.v12i8.2915.
- ↑ Mogro, M.F.; Jácome, F.A.; Cruz, G.M.; Zurita, J.R. (2024). «Sorting Line Assisted by A Robotic Manipulator and Artificial Vision with Active Safety». Journal of Robotics and Control (JRC) 5 (2): 388-396. doi:10.18196/jrc.v5i2.20327.
- ↑ Luna-Fox, S.B.; Uvidia-Armijo, J.H.; Uvidia-Armijo, L.A.; Romero-Medina, W.Y. (2024). «Exploración comparativa de los métodos numéricos de Newton-Raphson y bisección para la resolución de ecuaciones no lineales». MQRInvestigar 8 (2): 642-655. doi:10.56048/MQR20225.8.2.2024.642-655.
- ↑ Tvyordyj, D.A.; Parovik, R.I. (2022). «Mathematical modeling in MATLAB of solar activity cycles according to the growth-decline of the Wolf number». Vestnik KRAUNC. Fiziko-Matematicheskie Nauki 41 (4): 47-64. doi:10.26117/2079-6641-2022-41-4-47-65.
- Tjalling J. Ypma, Historical development of the Newton-Raphson method, SIAM Review 37 (4), 531–551, 1995.
- P. Deuflhard, Newton Methods for Nonlinear Problems. Affine Invariance and Adaptive Algorithms. Springer Series in Computational Mathematics, Vol. 35. Springer, Berlín, 2004. ISBN 3-540-21099-7.
- C. T. Kelley, Solving Nonlinear Equations with Newton's Method, no 1 in Fundamentals of Algorithms, SIAM, 2003. ISBN 0-89871-546-6.
- J. M. Ortega, W. C. Rheinboldt, Iterative Solution of Nonlinear Equations in Several Variables. Classics in Applied Mathematics, SIAM, 2000. ISBN 0-89871-461-3.
- W. H. Press, B. P. Flannery, S. A. Teukolsky, W. T. Vetterling, Numerical Recipes in C: The Art of Scientific Computing, Cambridge University Press, 1992. ISBN 0-521-43108-5 (available free online, with code samples: [1]), sections 9.4 [2] and 9.6 [3].
- W. H. Press, B. P. Flannery, S. A. Teukolsky, W. T. Vetterling, Numerical Recipes: The Art of Scientific Computing, Cambridge University Press, 2007. ISBN 0-521-88068-8 (available for a fee online, with code samples [4]).
- W. H. Press, B. P. Flannery, S. A. Teukolsky, W. T. Vetterling, Numerical Recipes in Fortran, Cambridge University Press, 1992. ISBN 0-521-43064-X (online, with code samples: [5])
- Endre Süli and David Mayers, An Introduction to Numerical Analysis, Cambridge University Press, 2003. ISBN 0-521-00794-1.
- Weisstein, Eric W. «Newton's method and Convergence». En Weisstein, Eric W, ed. MathWorld (en inglés). Wolfram Research. Consultado el 29 de agosto de 2009.
Enlaces externos
editar- Wikilibros alberga un libro o manual sobre implementaciones del método de Newton.
- Método de Newton aplicado al cálculo de la raíz cuadrada de un número
- El método de Newton en Mathcad Application Server (con animación)
- Método de Newton-Raphson: Notas, PPT, Mathcad, Maple, Matlab, Mathematica
- Código Matlab – Método de Newton-Raphson
- Método de Newton-Rapshon aplicado al cálculo de la raíz de una ecuación en Excel