ai 8 min • advanced

Le protocole de convergence empirique DInf-Grid unifie les comparaisons de solveurs à travers les EDO et les EDP

À l'intérieur des échelles de raffinement, des normes et des diagnostics de stabilité qui rendent les solveurs neuronaux et classiques directement comparables

Par AI Research Team
Le protocole de convergence empirique DInf-Grid unifie les comparaisons de solveurs à travers les EDO et les EDP

Protocole de Convergence Empirique DInf-Grid: Unifie les Comparaisons de Solveurs à travers les EDO et les EDP

Dans les échelles de raffinement, les normes et les diagnostics de stabilité qui rendent les solveurs neuronaux et classiques directement comparables

La plupart des études comparent encore les solveurs numériques classiques et les substituts neuronaux sur différents axes: ensembles de données ad hoc, métriques d’erreur incomparables ou coûts mal assortis. DInf-Grid propose un remède: un cadre unique et protocolisé de l’ordre de convergence empirique (EOC) qui s’étend des EDO non raides aux EDP raides, à travers les dimensions spatiales et les conditions aux limites, sous des échelles de raffinement contrôlées et des diagnostics partagés. L’objectif est simple mais tardif: précision et coût comparés de manière homogène à travers Runge–Kutta, BDF/IMEX, FEM/FV/spectral solvers, Physics-Informed Neural Networks (PINNs), Neural ODEs, opérateurs neuronaux, time-steppers apprenantes et SDE neuronaux.

Cet article déballe le cœur du protocole DInf-Grid: comment il estime l’EOC sur les échelles d’espace/temps/tolérance, quelles normes d’erreur il utilise et pourquoi, comment il gère les particularités spécifiques aux classes sans casser la comparabilité, et comment il instrumente la précision-coût — plus les vérifications de stabilité à long terme qui détectent les échecs subtils. Vous apprendrez comment les échelles de raffinement évitent les biais de stabilité, comment les solutions de référence sont normalisées, comment les adaptations prenant en compte la classe préservent les mêmes sémantiques de mesure, et comment l’architecture et les artefacts du protocole garantissent la traçabilité. L’essentiel: un langage de mesure commun pour les méthodes qui parlent rarement le même dialecte.

Détails de l’Architecture/Implémentation

Champ d’application, échelles, et normes

DInf-Grid couvre les EDO non raides et raides, les EDP elliptiques/paraboliques/hyperboliques en 1D–3D, et les conditions aux limites incluant Dirichlet, Neumann, mixtes, et périodiques. Les grilles cartésiennes structurées (avec des maillages FEM en produit tensoriel en option) permettent un h-raffinement contrôlé; l’intégration temporelle utilise des échelles de pas uniformes (dt0/2^k) ou des échelles de tolérance pour des schémas adaptatifs (τ ∈ {1e−2, …, 1e−8}), avec les tailles de pas réalisées enregistrées pour séparer la précision demandée de celle délivrée. Les configurations spectrales doublent la résolution modale N → 2N avec un aliasing/démoulage consistent pour éviter les artefacts causés par l’aliasing.

La statistique centrale est l’ordre de convergence empirique p̂, calculée à partir des raffinements appariés: p̂ = log(E(h)/E(h/2))/log(2), où E est une erreur dans une norme appropriée au problème. Pour les EDP, DInf-Grid rapporte les erreurs L2 et L∞ discrètes sur la grille d’évaluation, éventuellement normalisées par la norme du champ de référence. Les problèmes paraboliques incluent à la fois des erreurs à temps terminal et moyennées dans le temps; les tests hyperboliques rapportent la convergence en régime lisse plus les diagnostics à temps de choc. Pour les EDO, la déviation de l’état terminal est primaire, éventuellement augmentée par la MSE de trajectoire à des points de contrôle fixes.

Pour garantir que les pentes reflètent la méthode numérique plutôt que les artefacts de stabilité, les politiques de raffinement suivent le CFL pour les schémas EDP explicites (réduisant dt avec h), tandis que les schémas implicites réduisent dt en tandem avec h ou concordent l’ordre temporel pour isoler l’erreur spatiale. Pour les intégrateurs EDO/EDP adaptatifs, des échelles de tolérance sont utilisées tout en enregistrant les étapes acceptées/rejetées et dt réalisé pour concilier les cibles de tolérance avec la précision délivrée.

Références de Confiance et Discipline des Limites

Les solutions de référence sont produites avec des solveurs à haut ordre ou stables en rigidité à des tolérances serrées: Radau/BDF/SDIRK pour les EDO raides via SUNDIALS et DifferentialEquations.jl de SciML; solveurs spectraux sur les domaines périodiques via Dedalus; et FEM accéléré par multi-grille (FEniCS/deal.II avec HYPRE) pour les cas elliptiques et paraboliques diffusifs. L’anti-aliasing, le débourrage et les traitements aux limites (Dirichlet, Neumann, mixtes, périodiques) sont standardisés pour que la référence soit à la fois précise et comparable à travers les classes de méthodes. Les bases hyperboliques utilisent un volume fini à haut ordre avec des reconstructions WENO, un pas de temps Runge–Kutta SSP, et des solveurs de Riemann (Clawpack) pour fournir le comportement attendu: haut ordre dans les régions lisses et dégradation contrôlée de l’ordre près des discontinuités.

Adaptations Spécifiques aux Classes sans Casser la Comparabilité

  • Les EDO neuronaux sont intégrés avec des back-ends établis (pas adaptatif ou fixe) à partir de torchdiffeq et Diffrax; leur EOC reflète l’ordre de discrétisation uniquement lorsque l’erreur du modèle tombe en dessous de l’erreur de troncature. Les journaux enregistrent le nombre d’étapes réalisé pour interpréter les plateaux et les effets d’adaptabilité.
  • Les PINNs sont évalués par rapport aux références basées sur des grilles en augmentant la densité de collocation et l’ordre de quadrature; les normes résiduelles sont rapportées comme des diagnostics auxiliaires mais ne remplacent jamais l’erreur de solution.
  • Les opérateurs neuronaux (FNO, DeepONet, PINO) sont sondés pour le “résolution EOC” en s’entraînant sur une ou plusieurs grilles de sortie grossières et en évaluant à mesure que la résolution de sortie double, en enregistrant la pente locale jusqu’au plateau de saturation du modèle. L’anti-aliasing et le bourrage sont maintenus constants sur les domaines périodiques.
  • Les time-steppers et closures apprenantes sont figés pendant que le schéma hôte affine; la cohérence est vérifiée en confirmant que les corrections apprises diminuent correctement à mesure que h, dt → 0, préservant l’ordre formel du schéma hôte.
  • Les SDE neuronaux rapportent des ordres d’erreur forts ou faibles alignés avec des discrétisations de type Euler-Maruyama/Milstein, aux côtés du nombre de chemins échantillonnés nécessaires pour la cible statistique de tolérance.

Diagnostics de Stabilité à Long Horizon et de Structure

La convergence à court terme peut cacher une dérive à long terme. DInf-Grid pousse les déroulements bien au-delà de la fenêtre d’entraînement et suit: la dérive d’énergie invariante et modifiée pour les dynamiques de type hamiltonien; les spectres d’énergie cinétique, l’enstrophie, et les taux de dissipation pour les flux incompressibles (avec des références JAX-CFD sur des domaines périodiques); la variation totale et les mesures liées à l’entropie près des chocs pour exposer les oscillations ou la diffusion indésirable; et les courbes de croissance des erreurs pour quantifier les dérives de phase et d’amplitude. Les baselines de préservation de la structure classique (symplectiques pour les EDO hamiltoniennes; flux cohérents à l’entropie pour les EDP hyperboliques) fournissent le comportement attendu pour le contexte.

Instrumentation Précision–Coût et Équité

Le rapport précision–coût est décomposé afin que les autres puissent le reproduire:

  • Temps d’horloge d’entraînement et heures GPU pour les modèles appris; temps d’horloge d’inférence par instance; FLOPs par déroulement et mémoire de pointe (mesurés avec des profileurs cohérents tels que ptflops et fvcore, sous des temps de préchauffage et de répétition).
  • Les intégrations adaptatives classiques rapportent le nombre de pas acceptés/rejetés, les itérations non linéaires/linéaires, et les statistiques des préconditionneurs le cas échéant (par exemple, multi-grille en FEM).
  • Les résultats sont présentés sous forme de frontières de Pareto d’erreur–coût à résolutions et horizons correspondants, avec deux vues: coût amorti (inférence seule) et coût total (entraînement plus inférence). Pour les algorithmes adaptatifs, des comparaisons de précision équivalente à des cibles d’erreur communes complètent les vues de résolution correspondante, dissociant les avantages dus à l’adaptabilité.

Robustesse Statistique et Traçabilité

Pour réduire la variance et éviter les affirmations ponctuelles, DInf-Grid inclut plusieurs graines aléatoires pour les modèles appris; intervalles de confiance bootstrap sur les conditions initiales/aux limites partagées; exécutions adaptatives répétées classiques pour lisser les effets stochastiques des résolutions non linéaires et de la planification matérielle; et ajustements linéaires pour les graphiques de convergence avec estimations de pente et intervalles de 95%. Chaque benchmark est défini par une configuration fixant le domaine, les coefficients, IC/BC, les échelles de raffinement, les paramètres des solveurs, et les versions matérielles/logicielles. Les artefacts — points de contrôle, journaux, sorties brutes — sont conservés pour permettre la vérification externe des pentes EOC, des diagnostics de stabilité, et des positions de Pareto.

Structure d’Implémentation

Le protocole est indépendant des solveurs mais ancré dans des piles mûres: DifferentialEquations.jl et SUNDIALS pour l’intégration ODE/DAE et raide; PETSc TS pour l’intégration temporelle des EDP et les schémas IMEX; Clawpack pour les méthodes hyperboliques en volume fini; FEniCS/deal.II pour les solveurs elliptiques/paraboliques FEM; Dedalus pour les problèmes périodiques spectraux; torchdiffeq et Diffrax pour les EDO neuronaux; DeepXDE et NeuralPDE.jl pour les PINNs; code FNO/DeepONet/PINO officiel pour l’apprentissage d’opérateurs; torchsde pour l’intégration des SDE; PDEBench pour les ensembles de données et les séparations; et JAX-CFD pour les références de flux périodiques.

Tables de Comparaison

Ce que Révèle l’EOC à Travers les Classes de Solveurs

Classe de solveurEOC sous raffinementPrécision–coût (inférence)Stabilité à long horizon
Baselines classiques EDO/EDPCorrespond à l’ordre formel dans les régimes lisses; dégradation attendue près des chocsEn général coût par requête plus élevé; précision robusteFort avec des schémas appropriés; options de préservation de la structure disponibles
EDO neuronauxCorrespond à l’intégrateur uniquement lorsque l’erreur du modèle ≪ erreur de troncature; rigidité nécessite des backends implicitesCoût modéré; les pas adaptatifs varient; l’entraînement ajoute du surcoûtPeut dévier si le champ vectoriel est inexact; implémentations implicites aident avec la rigidité
PINNsErreur en diminution régulière sur elliptique/parabolique lisse avec stabilisation; faible près des chocs sans méthodes sur mesureTrès faible coût d’inférence après un entraînement intensifRisque de déviation sauf si informé par la physique et stabilisé
Opérateurs neuronaux (FNO/DeepONet/PINO)L’EOC augmente avec la résolution de sortie jusqu’au plateau limité par le modèle; fort sur les problèmes périodiques/lissesTrès faible coût d’inférence; favorable lorsqu’ammortisé sur plusieurs requêtesBon dans les régimes lisses; dérive d’énergie possible sans contraintes
Time-steppers/closures apprenantesPeuvent atteindre l’ordre du schéma hôte si les corrections sont cohérentesSemblable au schéma hôte; surcoût des composants apprisBon si des contraintes de conservation/cohérence sont appliquées
SDE neuronauxOrdres fort/faible déterminés par le schéma choisi; rapports des besoins en chemins échantillonnés pour les cibles statistiquesSemblable aux baselines SDE; plusieurs chemins augmentent le coûtDépend du schéma et des dynamiques apprises

Choix d’Échelles de Raffinement et Leur Importance

  • Spatial: h → h/2 sur grilles structurées; les maillages FEM en produit tensoriel préservent la qualité de l’élément.
  • Temporel: échelle de dt dt0/2^k pour pas fixe; échelle de tolérance τ ∈ {1e−2, …, 1e−8} pour adaptatif, en enregistrant les pas réalisés.
  • Spectral: N → 2N avec démoulage consistent.
  • Stabilité: garder le CFL fixe pour les schémas EDP explicites; implicite en tandem ou ordre temporal équivalent pour isoler l’erreur spatiale.

Meilleures Pratiques

  • Ancrer dans des références de confiance: Utiliser des solveurs EDO stables en rigidité (BDF/Radau/SDIRK via SUNDIALS ou SciML) et des baselines en spectral/FEM (Dedalus, FEniCS/deal.II avec HYPRE) à tolérances serrées pour ancrer l’EOC.
  • Mesurer ce qui compte: Rapporter les erreurs L2 et L∞ discrètes (relatives quand approprié). Pour EDP paraboliques, inclure les erreurs terminales et moyennes dans le temps; pour EDP hyperboliques, isoler les fenêtres lisses pour l’EOC et ajouter des diagnostics à temps de choc (variation totale, entropie).
  • Préserver les sémantiques de stabilité: Maintenir un CFL fixe pour les schémas explicites tout en affinant dans l’espace/temps; pour les intégrateurs adaptatifs, associer des échelles de tolérance aux étapes réalisées et comptabilisées; pour les méthodes spectrales, standardiser l’anti-aliasing.
  • Garder les adaptations neuronales comparables: Pour les EDO neuronaux, attendre des plateaux EOC jusqu’à ce que l’erreur du modèle tombe en dessous de l’erreur de troncature; enregistrer les étapes pour interpréter l’adaptabilité. Pour les PINNs, augmenter la densité de collocation et l’ordre du quadrature mais évaluer par rapport aux références basées sur des grilles; traiter les normes résiduelles comme auxiliaires. Pour les opérateurs neuronaux, suivre le “résolution EOC” local jusqu’à saturation; documenter la (les) résolution(s) d’entraînement.
  • Ne pas confondre les régimes de coût: Publier à la fois les frontières Pareto d’erreur–coût amorti (inférence uniquement) et total (entraînement + inférence), avec FLOPs et mémoire de pointe mesurés à l’aide d’outils cohérents (ptflops, fvcore), préchauffage, et répétitions.
  • Quantifier l’incertitude: Utiliser plusieurs graines, des intervalles de confiance bootstrap, des exécutions adaptatives répétées, et rapporter les ajustements de pente EOC avec intervalles de 95%.
  • Rendre cela reproductible: Geler les configurations de benchmark (domaines, IC/BC, coefficients, échelles, réglages de solveur, versions matérielles/logicielles) et publier des artefacts — points de contrôle, journaux, sorties brutes — pour la vérification externe des pentes et des Pareto.

Exemples Pratiques

Bien que DInf-Grid soit un protocole général, il inclut des procédures travaillées qui illustrent comment appliquer les échelles de raffinement, les normes, et les diagnostics de stabilité de manière cohérente:

  • Lorenz-63 (EDO non raide): Fixez le temps final T = 10 et affinez les pas fixes de dt = 1e−2 à 1.25e−3 pour les baselines à pas uniformes, aux côtés d’une échelle de tolérance pour RK45 adaptatif. Générez une référence à ordre élevé avec des tolérances très serrées. Entraînez une EDO neuronale sur des trajectoires; à chaque dt ou à chaque tolérance, calculez l’erreur à l’état terminal et la MSE de la trajectoire à travers des points de contrôle, estimez l’EOC et enregistrez le nombre de pas. Profiler le temps d’horloge d’inférence, les FLOPs par étape, et la mémoire; entraîner avec au moins cinq graines et calculer des intervalles bootstrap de confiance.

  • Van der Pol (μ = 1000, EDO raide): Utilisez des références BDF/Radau avec des tolérances serrées via SUNDIALS ou DifferentialEquations.jl; intégrez les EDO neuronales avec des back-ends implicites (par exemple, BDF dans Diffrax) pour gérer la rigidité. Parcourez les tolérances, rapportez l’EOC dans l’erreur à l’état terminal, et incluez le nombre d’itérations non linéaires et les indicateurs de rigidité des journaux de solveur.

  • 2D Poisson (elliptique): Établissez une solution fabriquée sur [0,1]² avec des limites Dirichlet et Neumann. Exécutez des baselines FEM (p = 1/2) avec réduction de moitié de h et préconditionnement multigrille (HYPRE), et calculez les erreurs L2/L∞ pour extraire l’EOC spatial. Entraînez des variantes DeepONet et PINN; pour les PINNs, augmentez la densité de collocation et la précision du quadrature. Pour les opérateurs neuronaux, évaluez l’erreur à mesure que la résolution de sortie double, et observez la pente jusqu’à ce que le modèle atteigne saturation.

  • 1D Burgers (hyperbolique): Exécutez à la fois un cas de régime lisse et un cas formant une onde de choc avec BCons périodiques. Utilisez des baselines WENO5 + SSP-RK avec solveurs de Riemann (Clawpack) pour établir l’EOC du régime lisse; rapportez les erreurs à temps de choc et la variation totale pour exposer les oscillations ou la diffusion non désirée. Évaluez FNO/PINO et PINNs pour les artefacts de dispersion ou de Gibbs, en appliquant la cohérence de l’anti-aliasing/démoulage.

  • 2D Navier–Stokes sur un tore: Suivez les configurations périodiques PDEBench/JAX-CFD. Entraînez un opérateur neuronal à 64² et testez à 128² et 256²; rapportez l’échelle d’erreur par rapport à la résolution de sortie jusqu’à saturation, et ajoutez des diagnostics de dérive à long terme, des spectres énergétiques, et de l’enstrophie par rapport aux références JAX-CFD.

  • 2D Darcy avec BCs mixtes: Générer des champs de perméabilité paramétriques et exécuter des baselines FEM avec sectionnement de h; entraîner DeepONet/FNO sur les séparations PDEBench et évaluer la généralisation de la résolution et les décalages des paramètres. Rapporter les erreurs L2/L∞ et l’EOC à mesure que h est réduit de moitié, en assurant que les réglages multigrille et les BCs sont fixés à travers les exécutions.

Chaque exemple démontre les mêmes sémantiques de mesure: affiner sous des politiques conscientes de la stabilité; calculer les erreurs dans des normes standardisées; estimer l’EOC avec des bandes de confiance; et positionner les méthodes sur des frontières de Pareto de précision-coût amortie et totale, le tout avec des artefacts préservés pour l’auditabilité.

Conclusion

DInf-Grid transforme une littérature fragmentée en une discipline de mesure unifiée: convergence empirique sous raffinement contrôlé, normes et références standardisées, adaptations conscientes des classes qui préservent la comparabilité, vérifications de stabilité à long terme qui attrapent ce que l’EOC à court terme peut manquer, et instrumentation précision-coût qui sépare les gains amortis des dépenses totales. Associant des piles numériques matures avec des toolkits de physique-ML largement utilisés, le protocole situe les solveurs classiques et neuronaux sur les mêmes axes d’erreur et de coût, avec des artefacts traçables et une quantification de l’incertitude pour justifier chaque pente et point de Pareto.

Points clés à retenir:

  • L’ordre de convergence empirique est la lingua franca pour les comparaisons de solveurs à travers les EDO et les EDP lorsque les échelles de raffinement et les normes sont standardisées.
  • Le raffinement conscient de la stabilité (CFL fixe, implémentation implicite) empêche les pentes confondues; les références de confiance et la discipline des limites sont non négociables.
  • Les évaluations spécifiques aux réseaux neuronaux (résolution EOC, balayages de collocation, back-ends implicites) gardent les comparaisons équitables sans changer les sémantiques de mesure.
  • La précision-coût doit être décomposée en vues amorties et totales, avec un outil de mesure FLOP/mémoire et des timings répétés.
  • La robustesse statistique et la préservation des artefacts rendent les découvertes reproductibles et vérifiables.

Prochaines étapes pour les praticiens: adopter les modèles d’échelle et de norme ici; intégrer des bases de données matures et des toolkits de physique-ML; publier l’EOC avec des intervalles de 95 % aux côtés des parcelles Pareto amorties/totales; et archiver des artefacts pour vérification. En regardant vers l’avant, étendre DInf-Grid aux couplages multi-physiques et aux maillages adaptatifs (avec les mêmes sémantiques d’échelle) pourrait encore standardiser la manière dont le domaine mesure les progrès — méthode par méthode, pente par pente. 🚦

Sources & Références

diffeq.sciml.ai
DifferentialEquations.jl (SciML) Provides high-quality ODE/DAE solvers and automated convergence testing used as trusted references and for implementing refinement ladders.
computing.llnl.gov
SUNDIALS (CVODE/ARKODE/IDA) Supplies stiff-stable implicit solvers (BDF/Radau/IMEX) used to produce reference solutions and to evaluate adaptive stepping and tolerance ladders.
petsc.org
PETSc TS (time steppers for PDEs) Supports PDE time integration (explicit/implicit/IMEX) and logging of iterations/steps for fair, reproducible temporal refinement.
www.clawpack.org
Clawpack Delivers hyperbolic finite-volume baselines (WENO, Riemann solvers) essential for smooth-regime EOC and shock diagnostics.
fenicsproject.org
FEniCS (FEM) Provides FEM baselines for elliptic/parabolic PDEs with h-refinement and standardized boundary treatments.
dedalus-project.org
Dedalus (spectral PDE solver) Enables spectral references on periodic domains and standardized dealiasing for N→2N refinement.
arxiv.org
Fourier Neural Operator for Parametric PDEs Represents neural operator methods evaluated under resolution EOC and periodic-domain standards.
github.com
FNO official code Reference implementation used to ensure reproducible operator-learning baselines within the protocol.
www.nature.com
DeepONet (Nature Machine Intelligence 2021) Canonical neural operator family assessed for resolution generalization and EOC saturation behavior.
arxiv.org
Physics-Informed Neural Operator (PINO) Physics-regularized operator-learning variant evaluated for convergence under standardized anti-aliasing and padding.
arxiv.org
Neural Ordinary Differential Equations Defines the Neural ODE paradigm whose EOC depends on integrator order versus model error; integrated with adaptive back-ends.
github.com
torchdiffeq (official code) Backend for Neural ODE integration used in the protocol’s class-specific adaptations and logging of step counts.
github.com
Diffrax (JAX differential equation solvers) Provides implicit/explicit ODE solvers for Neural ODE training/inference, key for stiff cases and tolerance ladders.
www.sciencedirect.com
Physics-Informed Neural Networks (JCP 2019) Foundational PINN method whose evaluation in the protocol relies on collocation density/quadrature sweeps and solution error metrics.
github.com
DeepXDE (PINNs library) Widely used PINN toolkit leveraged for standardized training and diagnostics in the protocol.
arxiv.org
Characterizing possible failure modes in PINNs Documents PINN limitations (e.g., stiffness, shocks) motivating the protocol’s diagnostics and stabilization requirements.
hypre.readthedocs.io
HYPRE (multigrid preconditioners) Used with FEM baselines to ensure scalable, trusted references for elliptic/parabolic problems.
www.dealii.org
deal.II (FEM library) Alternative FEM backbone aligned with FEniCS for h-refinement and boundary handling in the benchmark suite.
epubs.siam.org
High-order WENO schemes (SIAM Review) Underpins hyperbolic FV baselines used to define smooth-regime EOC and behavior near discontinuities.
bookstore.siam.org
Strong Stability Preserving Runge–Kutta and Multistep Methods Supports SSP time-integration choices paired with WENO for stable hyperbolic tests and EOC analysis.
docs.sciml.ai
DiffEqDevTools.jl: Convergence Testing Formalizes empirical order-of-convergence estimation and confidence intervals central to the protocol.
github.com
torchsde (official code) Implements SDE solvers/estimators used to report strong/weak orders and sampling costs in neural SDE evaluations.
arxiv.org
Neural SDEs (Tzen & Raginsky 2019) Context for strong/weak order notions and training considerations in neural SDE settings within the protocol.
arxiv.org
PDEBench (paper) Provides datasets/splits and periodic-flow configs used for resolution generalization and Pareto assessments.
github.com
PDEBench (repo) Practical source for data generation and standardized metadata leveraged by the protocol.
github.com
JAX-CFD (reference CFD in JAX) Supplies trusted periodic Navier–Stokes baselines and routines for energy spectra/enstrophy diagnostics.
github.com
ptflops (FLOPs counter) Used to measure per-rollout FLOPs consistently for error–cost Pareto frontiers.
github.com
fvcore (FLOPs/memory utils) Complements FLOP and memory profiling to support fair, reproducible cost reporting.
link.springer.com
Solving Ordinary Differential Equations I (Hairer, Nørsett, Wanner) Authoritative reference for ODE order/stability underpinning EOC expectations and stiff/nonstiff distinctions.
www.cambridge.org
Finite Volume Methods for Hyperbolic Problems (LeVeque) Grounds the behavior of hyperbolic solvers (WENO, Riemann solvers) and shock-related EOC diagnostics.
docs.scipy.org
SciPy solve_ivp Additional ODE baseline context for adaptive integrators used in tolerance ladder evaluations.
link.springer.com
Geometric Numerical Integration (Hairer, Lubich, Wanner) Establishes structure-preserving baselines (e.g., symplectic) for long-horizon stability diagnostics.

Advertisement