menu
Anh-Thi DINH

Numerical analysis 1

Posted on 02/01/2018, in Mathematics.

Xem phần 2 tại đây.

Linh tinh

The Picard–Lindelöf theorem, which shows that ordinary differential equations have solutions, is essentially an application of the Banach fixed point theorem to a special sequence of functions which forms a fixed point iteration, constructing the solution to the equation. Solving an ODE in this way is called Picard iteration, Picard’s method, or the Picard iterative process. (wiki)

Có thể hiểu hơn về cái Picard này ở mục 1.6 (mất link). Nó nói rằng thay vì giải $F(u)=u^2+u$ chẳng hạn, ta giải $\hat{F}(u)=\bar{u}u+u$, trong đó $\bar{u}$ là xấp xỉ của $u$. Cũng gần giống như cái ý tưởng $k,k+1$ của mình khi giải tìm nghiệm $u$ trong article 1.

The idea of turning a nonlinear equation into a linear one by using an approximation $\bar{u}$ of $u$ in nonlinear terms is a widely used approach that goes under many names: fixed-point iteration, the method of successive substitutions, nonlinear Richardson iteration, and Picard iteration. We will stick to the latter name.

Physical meaning

Physical meaning của curl, divergence, gradient, laplacian… xem trong Math2IT.

Convergence measures & stability

[source] For any rootfinding technique, we have 3 convergence measures to construct the stopping condition

  • absolute error : $p_n-p < \varepsilon$
  • relative error : $\dfrac{\vert p_n-p\vert}{\vert p_n\vert}<\varepsilon$
  • test : $\vert f(p_n)\vert<\varepsilon$

Noone is always better than another.


Cái ý tưởng delete finite element basis functions which have a “very small” support được nêu ra ở trong Arnold2008. Cũng trong bài báo này, ông ta cũng show ra $L^2$ stabilities của basis mới này.


Ý tưởng chứng minh convergence 16/10/15, có tờ màu xanh

Inf-Sup stability

(Inf-sup condition hay còn gọi là Ladyzhenskaya-Babuska-Breezi condition) : Cái inf-sup stability này có thể tìm thấy trong nhiều tài liệu, điển hình là trong Ern2004 trang 268. Nếu chứng minh được $\exists c>0$ such that

Có thể xem thêm ở note của Long Chen, tổng kết ngắn gọn như sau (cái này gọi là Babuska theory I)

$A:U\to V’, \quad A’:V\to U’$ với $U’,V’$ are dual spaces of $U,V$. Problem is “Given $f\in V’$, find $u\in U: Au=f$ hay $a(u,v)=(f,v),\forall v\in V$. Khi ấy có các đều kiện

  1. (continuous) $a(u,v)\le C\Vert{u}\Vert_{}\Vert{v}\Vert_{}, \forall u\in U, v\in V$.
  2. (existence) $\inf_{v\in V}\sup_{u\in U}\dfrac{a(u,v)}{\Vert{u}\Vert\Vert{v}\Vert}=c_{\alpha}>0$ (*)
  3. (uniqueness) $\inf_{u\in U}\sup_{v\in V}\dfrac{a(u,v)}{\Vert{u}\Vert\Vert{v}\Vert}=c_{\beta}>0$

(*) $\Leftrightarrow \forall v\in V, \exists u\in U: a(u,v)\ge C\Vert{v}\Vert^2$. If $U=V: a(u,u)\ge C\Vert{u}\Vert^2$ (coercive), điều này dẫn tới định lý Lax-Milgram.


Có lúc thắc mắc là basic function $\varphi\in V^{\Gamma}_h$ với định nghĩa $V^{\Gamma}_h={v\in L^2(\Omega)\ldots}$ thì nó có coninuous qua interface hay không. Vẫn là không vì nó là $L^2(\Omega)$ tức là khả tích chứ ko có nhắc gì khả vi.

Standard interpolation error estimate

For $v\in H^1_0(K)\cup H^2(K)$, we have

a priori error estimate & posteriori error estimate

Ý tưởng (không biết có dính tới numerical analysis không?) : Suppose you are looking at a falling object. You make a model of the motion of the object in your head. You then close your eyes for a second and estimate the current position of the object in your head. This estimate is the a priori one, before the measurement process. If you open your eyes and look (take a measurement) you will most likely update your model of the process. This is the a posteriori state estimate.

Chính xác (Xem thêm course của Adam Demlow) The main feature of a priori estimates is that they tell us the order of convergence of a given finite element method, that is, they tel us that the finite element error $\Vert {u-u_h}\Vert$ in some norm $\Vert {\cdot}\Vert$ is $O(h^{\alpha})$ where $h$ is the maximum mesh size and $\alpha$ is a positive integer. The constant in the $O(h^{\alpha})$ is generally unknown and is often not of great interest. The goal of these estimate is to give us a reasonable measure of the efficiency of a given method by telling us how fast the error decreases as we decrease the mesh size.

Wikipedia : A priori is Latin for “from before” and refers to the fact that the estimate for the solution is derived before the solution is known to exist. One reason for their importance is that if one can prove an a priori estimate for solutions of a differential equation, then it is often possible to prove that solutions exist using the continuity method or a fixed point theorem.

In contrast, a posteriori estimates use the computed solution $u_h$ in order to give us an estimate of the form $\Vert {u-u_h}\Vert \ge \epsilon$, where $\epsilon$ is simply a number. These estimates accomplish 2 main goals. First, they are able to give a better idea of the actual error in a given finite element computation than are a priori estimate. They can be used to perform adaptive mesh refinement. In adaptive mesh refinement, a posteriori estimators are used to indicate where the error is particularly high, and more mesh intervals are then placed in those locations. A new finite element solution is computed, and the process is repeated until a satisfactory error tolerance is reached.

► Câu trả lời từ Scicomp StackExchange

Error estimates usually have the form

where $u$ is the exact solution you are interested in, $u_h$ is a computed approximate solution, $h$ is an approximation parameter you can control, and $C(h)$ is some function of $h$ (among other things). In finite element methods, $u$ is the solution of a partial differential equation and $u_h$ would be the finite element solution for a mesh with mesh size $h$, but you have the same structure in inverse problems (with the regularization parameter $\alpha$ in place of $h$) or iterative methods for solving equations or optimization problems (with the iteration index $k$ – or rather $1/k$ – in place of $h$).

The point of such an estimate is to help answer the question “If I want to get within, say, $10^{-3}$ of the exact solution, how small do I have to choose $h$?”

The difference between a priori and a posterior estimates is in the form of the right-hand side $C(h)$:

  • In a priori estimates, the right-hand side depends on $h$ (usually explicitly) and $u$, but not on $u_h$. For example, a typical a priori estimate for the finite element approximation of Poisson’s equation $-\Delta u = f$ would have the form

with a constant $c$ depending on the geometry of the domain and the mesh. In principle, the right-hand side can be evaluated prior to computing $u_h$ (hence the name), so you’d be able to choose $h$ before solving anything. In practice, neither $c$ nor $\vert u \vert_{H^2}$ is known ($u$ is what you’re looking for in the first place), but you can sometimes get order-or-magnitude estimates for $c$ by carefully going through the proofs and for $\vert u \vert$ using the data $f$ (which is known). The main use is as a qualitative estimate – it tells you that if you want to make the error smaller by a factor of four, you need to halve $h$.

  • In a posteriori estimates, the right-hand side depends on $h$ and $u_h$, but not on $u$. A simple residual-based a posterior estimate for Poisson’s equation would be

which could in theory be evaluated after computing $u_h$. In practice, the $H^{-1}$ norm is problematic to compute, so you’d further manipulate the right-hand side to get an element-wise bound

where the first sum is over the elements $K$ of the triangulation, $h_K$ is the size of $K$, the second sum is over all element boundaries $F$, and $j(\nabla u_h)$ denotes the jump of the normal derivative of $u_h$ across $F$. This is now fully computable after obtaining $u_h$, except for the constant $c$. So again the use is mainly qualitative – it tells you which elements give a larger error contribution than others, so instead of reducing $h$ uniformly, you just select some elements with large error contributions and make those smaller by subdividing them. This is the basis of adaptive finite element methods.

Methods

The Streamline Diffution method

(SUPG) for the convection dominated problem. Xem thêm Knabner2002 chapter 9.

  • Convection dominated problem : global Péclet number $Pe:=\frac{\Vert{c}\Vert_{\infty} \text{diam}(\Omega) }{\Vert{\varepsilon}\Vert_{\infty}} \gg 1$

  • Ý tưởng phương pháp là cộng thêm vào weak formulation một lượng trong đó ta thường chọn $\tau(v_h):=c\cdot\nabla v_h$.

Hoặc chúng ta có thể viết lại weak formulation như sau

Vì ở trên có đại lượng $(c\cdot\nabla u_h, c\cdot\nabla v_h)$, which is the variational form of a dissusion acting only in the direction $c$. This explains the name of this finite element method. (See this explanation at page 202 book of Arnold)

Newton method

  • Xem thêm thông tin tại đây
  • Heavily dependent on the choice of initial value $p_0$.
  • Có thể converge, có thể converge về 1 giá trị khác, có thể không converge tùy vào cách chọn $p_0$.
  • Có định đảm bảo Newton’s method sẽ converge nhưng với điều kiện là cái $p_0\in [p-\delta,p+\delta]$ với một cái $\delta>0$ nào đó. Sẽ tồn tại $\delta$ này nhưng chúng ta không biết được nó to nhỏ ra sao, làm sao để chọn $p_0$ phù hợp với $\delta$ này.

Fully discrete method

  • Thomee2006 uses fully-discrete scheme. Đây là một disadvantage.
  • Chapter 7 in book of Knabner.

Immersed interface method (IIM)

(cái ý này lấy trong bài báo Li2003 page 3) : To solve an interface problem numerically, usually we need to choose a grid first. In general, there are two kinds of grids:

  • (i) a body fitted grid that is usally combined with a finite element (FE) method, see for example, [7,12];
  • (ii) a Cartesian grid (lưới vuông) that is usually assocuated with a finite difference (FD) discretization.

The immersed interface method is often based on a Cartesian grid and is often associated with a finite difference method. However, it has been also combined with finite element methods [43,45]. $\Rightarrow$ Rốt cuộc cũng chưa biết IIM là cái gì?

Có cái thesis của Li làm nhiều về cái IIM này. xem ở đây

The basic idea of our immersed interface method is to discretize the Navier-Stokes equations on a uniform Cartesian grid and to account for the singular forces by explicitly incorporating the jumps in the solutions and their derivatives into the difference equations.

$\Rightarrow$ Bài báo về IIM và its applications tại immersed fem_li 2003.pdf


Trong bài báo so sánh XFEM và IIM của Chopp (chopp 2006 comparison xfem iim elliptic.pdf), ông nói

  • The Immersed Interface Method is a finite difference method for approximating the solution to (1). The method solves (1) with singular sources and discontinuous coefficients as well as jump conditions given on the interface by using a regular Cartesian grid that does not conform to the interface. For grid points away from the interface, the standard five-point finite difference stencil is used. As a result, the method is second order away from the interface. For grid points near the interface, a six-point stencil and correction terms are added to the right hand side in order to maintain global second order accuracy.

[wadbro 2013 unifomly well-conditioned unfitted Nitsche interface.pdf] In the immersed finite element method, special basis functions are constructed for the elements that are intersected by the interface; these basis functions are piecewise polynomials and satisfy the jump conditions on the interface.

NXFEM & Nitsche & interface

Ý tưởng về một basis functions mới (hơi khác tí cái của mình vì trong $\Omega_2$ nó chổng ngược xuống dưới) nằm trong mục 7.9.2 của ArnoldBook


Một trong những tài liệu khá hay và đầy đủ liệt kê vấn đề liên quan đến interface và xfem là note trường hè của Lehrenfeld2015

Có một đoạn cô biến đổi theo Nitsche’s method nhưng chưa chính xác lắm, có thể dùng tham khảo sau này. 6/5/15


Mọi cái có $u=g$ trên interface là phải dùng thêm lượng penalty. Tức là weakly impose Dirichlet conditions lên interface này. Xem thêm nitscheIdea.

Nếu theo phương pháp của Hansbo thì $[\phi_i]= \phi_i\vert_{\Omega_1} - \phi_i\vert_{\Omega_2} = \phi_i\vert_{\Omega_1}$ hoặc $\phi_i\vert_{\Omega_2}$. Còn theo các basis functions bình thường thì $[\phi_i] = 0$.

Lagrangian–Eulerian methods

Hai cái này khác nhau, xem thêm wikipedia để hiểu thêm.

Cái Larangian nhìn dòng chảy bằng cách follows an individual fluid parcel khi nó di chuyển through space and time. Tưởng tượng như là ta đang ngồi trên một chiếc thuyền và xem một chiếc lá (tượng trưng cho hạt nước) chảy trên sông.

Cái Eulerian nhìn dòng chảy bằng cách tập trung vào một vị trí cố định trong không gian khi dòng chảy chảy qua trong khoảng thời gian đó. Tưởng tượng như là khi ta đứng trên bờ và quan sát dòng chảy chảy qua một điểm cố định.

Conforming/Nonconforming FEM

Trong sách của Ern2004, mục 2.2.1. Let $W$ be a Banach space and $V$ be a reflexive banach space. We have a problem $a(u,v)=(f,v)$ with $a\in \mathcal{L}(W\times V;\mathbb{R})$ and $f\in V’$.

The key idea underlying Galerkin methods is to replace the spaces $W$ and $V$ by finite dimensional spaces $W_h, V_h$. $W_h$ is termed the solution space or trial space and $V_h$ is termed the test space.

Definition 2.13 (Conformity) The approzimation setting is said to be conformal if $W_h\subset W$ and $V_h \subset V$; it is said to be non confomral otherwise.


Không biết sao chứ cái phương pháp gốc của Hansbo được xem là conforming, điều này được nói đến trong thèse của El-Otmany2015.

Idea: có thể cái conforming hay forming này xét đến sự liên tục qua các edges vì cái mà El nói đến và áp dụng conforming là có điều kiện trên edges của tam giác. Chỉ là ý kiến cá nhân của mình.


Conformal dịch ra là “bảo giác” nhưng conforming dịch ra là “làm cho thích hợp”. Có một cái gọi là Conforming FEM, có thể tham khảo câu hỏi trên Stackexchange về cái này. Bên dưới là một số ý rút ra từ câu hỏi này

For a given partition of $\Omega$, a conforming approximation of $H^1 (\Omega)$ is a space of continuous functions defined by a finite number of parameters (degrees of freedom). This is usually achieved by using a space of piecewise polynomial functions on the elements K of the partition for $\Omega$. The degrees of freedom are then a set of linear forms on the set of polynomials on K.

A popular non-conforming method is the Discontinuous Galerkin method. > Why???

A function space $X_0^h$ is conforming iff $X_0^h \subset H_0^1$. If you know that functions in $X_0^h$ are polynomials on the cells of your mesh, you have $X_0^h \subset H_0^1$ iff all your functions are continuous, i.e., you have no jumps between different cells.


Vậy chi cái NXFEM là một dạng của nonconforming FEM. Có 1 bài báo nói về cái này, nonconforming nxfem elliptic (co ghost penalty).pdf


Một tài liệu khác để xem cái này là note của fem ronald h.w. hoppe NOTE.pdf (chương 3)

A simplicial triangulation $\mathcal{T}_h$ of the computational domain $\Omega \subset \mathbb{R}^d$ is called geometrically conforming, if there holds: The intersection of two different elements of the triangulation is either empty, or consists of a common face, or a common edge, or a common vertex. (trang 52 pdf)

Conformity of Lagrangian finite element spaces: Let $\mathcal{T}_h$ be a geometrically conforming simplicial triangulation of the computational domain $\Omega \subset \mathbb{R}^d$ then there holds (trang 52)

Điều này cũng có nghĩa, conforming FEM là không gian con của $H^1(\Omega)$, nghĩa là chúng liên tục.

Discontinuous Galerkin method

Broken Sobolev space : $H^k(\Omega,\mathcal{T}_h)={v\in L^2(\Omega); v\vert_K\in H^k(K), \forall K\in \mathcal{T}_h}$


Cách giảng giải DGM dễ hiểu về cả không gian lẫn weak form có thể đọc ở Dolejsi2015 (trang 21)


Tóm tắt ý tưởng ở trong Dolejsi2015, cho phương trình

The weak formulation is

Với $\mathcal{F}^{ID}_h$ is collection of all triangle edges (inner and dirichlet boundary edges). However, in order to guarantee the existence of the approximate solution and its convergence to the exact one, some additional terms have to be included in the DG formulation. $\Rightarrow$ Vẫn cần thêm các terms penalty, symmetric.


The DG của cái phương trình (cf. Brezzi2004)

where

Sum of all triangles, we have


Identity from Arnold2001 which holds for vectors $\mathbf{\tau}$ and scalars $\varphi$, piecewise smooth on $\mathcal{T}_h$

trong đó $\mathcal{E}_h,\mathcal{E}_h^0$ tương ứng là set of all triangle edges và interior edges.


Ý tưởng discontinuous unfitted mà không lấy một phần của interface mà chỉ lấy một phần của triangle edge để miêu tả interface được nêu trong Engwer2009 trang 23.

Mesh & scheme

$h_T$ = diameter of $T$ = longest side of $T$.


Consistency: If $u$ solves the main problem, $u$ also solves the $a_h(u_h,v_h)=(f,v_h)$ problem.


Possibility : Hiểu đại loại là numerical solution vẫn đảm bảo non-negative (cái này có sách gọi là posibility preserving). Xem thêm ở file background/analysis/possibility ideas.pdf (cái file này toàn chữ không hà, chủ yếu coi cái ý tưởng ở phần đầu nó giới thiệu khá hay).


Quasi uniform mesh: (tham khảo link Definition 8.3.1). Nói ngắn gọn, nếu tồn tại $C$ để $\dfrac{h}{h_i} \le C$ trong đó $h=\dfrac{b-a}{N}, h_i=x_{i+1}-x_i$.

Theo Claes, $h_K \ge h$ = all elements $K$ of $T_h$ are roughly the same size = quasi-uniform.


Dãy số có thể lấy là $h$ vì giữa $h$ và $N$ có mối liên quan với nhau. 26/9/15.


Cái form của $S$ và $B$ trong discrete problem có thể xem file uniqueness. Cách biến đổi xem file viết tay ngày 17/11/15


Cartesian grid : lợi ích?

  • No cost for grid generating.
  • we can take advantage of many software packages or methods developed for Cartesian grids (xem trong )

Còn tài liệu khá hay liênq quan giữa numerical cho transport dùng freefem++ là DeVuyst2013

The order bilinear form and stiffness matrix are different

Suppose that we need to find $u_h\in V_h$ such that

Let ${\varphi_i}_i​$ be a basis for $V_h​$, this is equivalent to

Since $u_h \in V_h$, $u_h=\sum_j u_j \varphi_j$, then

If we use $A(u,v) = (b,v)$ with $u_j$ and $b_i$ then $A_{ij}\times u_j=b_i$.


The order of convergence

Trong lý thuyết, kết quả có thể là $\Vert u-u_h\Vert \le Ch^{\alpha} \Vert u \Vert$.

Suy ra

Lưu ý, $u$ không phụ thuộc vào $h$.

Node, degree of freedom, vertices in numberical analysis

Tham khảo Tại đây hoặc Why do solid elements have three degrees of freedom in FEM?

Each element possesses a set of distinguishing points called nodal points or nodes for short. Nodes serve a dual purpose: definition of element geometry, and home for degrees of freedom.

Xem xong vẫn chưa hiểu thấu được cụ thể hai thằng dofs và nodes có khác nhau gì không hay giống nhau?


In general, the number of degrees of freedom associated with a finite element is equal to the product of the number of nodes and the number of values of the field variable (and possibly its derivatives) that must be computed at each node. (nguồn)


We now introduce cells as the subdomains Ω(e) previously referred as elements. The cell boundaries are denoted as vertices. The reason for this name is that cells are recognized by their vertices in 2D and 3D. We also define a set of degrees of freedom, which are the quantities we aim to compute. The most common type of degree of freedom is the value of the unknown function u at some point. (For example, we can introduce nodes as before and say the degrees of freedom are the values of u at the nodes.) The basis functions are constructed so that they equal unity for one particular degree of freedom and zero for the rest. This property ensures that when we evaluate u = Pj cj’j for degree of freedom number i, we get u = ci. Integrals are performed over cells, usually by mapping the cell of interest to a reference cell (Xem thêm ở file fem hans peter NOTE)

Nonlinear + system

Có cái nonlinear system of equations dùng fixed-point method nhưng một điều kiện cần là các $g_i(x),x\in \mathbb{R}^n$ phải continuous. Xem thểm ở file brouwer_fixed_point_oliver_tse.pdf trong thư mục nonlinear-... trang 10.

Relaxation (sự phục hồi)

Xem thêm ở mục 1.9 của solving nonlinear ode and pde.pdf

Parallel vs Sequential algorithm

Có thể xem đầy đủ ở đây parallel - sequential algorithm.pdf

In other words with sequential programming, processes are run one after another in a succession fashion while in parallel computing, you have multiple processes execute at the same time. With sequential programming, computation is modeled after problems with a chronological sequence of events. (source)

Parallel algorithm

Cái này từ Conjugate Gradient Method, cũng giống ý tưởng của iterative method. Nghĩa là tìm ra các nghiệm xấp xỉ $x_0,x_1,\ldots,x_n,\ldots$ của exact solution $x^*$ của $Ax=b$. Thật ra cái Conjugate Gradient Method là một bộ phẩn của iterative method. Chưa rõ nó có điểm gì riêng.

Sequential algorithm

Cái này giống như direct method, từ cái ma trận ban đầu $A$, nó biến đổi về LU (ma trận tam giác) sau đó giải. Ý tưởng từ cái Gauss elimination. Biến đổi hệ phương trình bằng các phép biến đổi sơ cấp (đổi dòng, nhân với 1 số khác 0, cộng các dòng) để ra 1 ma trận tương đương.

Preconditioner, condition number & matrix

Condition number

Thật ra xem trên wikipedia dễ hiểu hơn. Nó có động cơ + giải thích luôn. Dưới đây là tóm tắt đôi chút. Cái chính là ta muốn xem sự thay đổi nhỏ của $A$ hoặc $F$ sẽ ảnh hưởng thế nào đến kết quả nghiệm?. Đầu tiên, ta xét,

Sẽ thế nào nếu $F$ thay đổi 1 tí thành $F+e$? Khi ấy giá trị của $\delta x$ có lớn quá không? $\delta x$ là gì? Đó chính là $x_2-x_1$, trong đó,

Bây giờ ta muốn khảo sát,

Nhớ lại định nghĩa chuẩn của ma trận là

Do đó ta cố gắng đưa cái max vào để được cái $\Vert A^{-1}\Vert \Vert A\Vert = \kappa(A)$.


Trong sách của Ern Ern2004 mục 9.1.2 có nói về ill conditioning and linear system stability.

Let $U$ be a solution of following system

and $U+\delta U$ is the solution to the perturbed system $A(U+\delta U) = F+\delta F$ and assume that $F\ne 0$ then

$\Rightarrow$ Sự thay đổi nhỏ ở $F$ phụ thuộc nhiều vào $\kappa(A)$ để dẫn đến sự thay đổi nhỏ/lớn ở kết quả nghiệm!

If $U+\delta U$ is the solution to the pertubed system $(A+\delta A)(U+\delta U)=F$ with $F\ne 0$ then

$\Rightarrow$ Sự thay đổi nhỏ ở $A$ phụ thuộc nhiều vào $\kappa(A)$ để dẫn đến sự thay đổi nhỏ/lớn ở kết quả nghiệm!


Condition number of a matrix $M$ = ratio between its largest and smallest eigenvalue. Có thể đọc chứng minh ở Proposiition 9.2 Arnold Book. Lý do tại sao thì có 1 ý tưởng nho nhỏ có thể xem xét. Dựa vào định nghĩa của $\Vert A\Vert$ rồi định nghĩa của eigenvalues và eigenvectors của $A$ là $Av=\lambda v$, ta thay công thức của $\Vert A\Vert$ bởi các eigenvalues và eigenvector này, sau đó lấy max là ra kết quả. Điều còn lại chưa rõ là tại sao lại có min?

Cũng có thể tham khảo 1 tí ở tài liệu này và file eigenvalue and singular value.pdf.

Preconditioner

Preconditioner : The general idea underlying any preconditioning procedure for iterative solvers is to modify the (ill-conditioned) system $Ax = b$ in such a way that we obtain an equivalent system $\bar{A}\bar{x}=\bar{b}$ for which the iterative method converges faster.

Xem thêm về condtional number của một matrix ở trang Math2IT.

ill-conditioned matrix có nghĩa là khi thay đổi một chút giá trị hệ số trong phương trình $AU=F$ (thay đổi $A$ hay $F$) thì kết quả nghiệm $U$ thay đổi rất nhiều. Còn well-conditioned matrix có nghĩa là khi thay đổi nhỏ các hệ số thì kết quả nghiệm cũng chỉ thay đổi nhỏ mà thôi.

Norm of matrix (chuẩn của ma trận) : $\Vert A \Vert = \max_{x\ne 0}\dfrac{\Vert Ax \Vert}{\Vert x\Vert}$. Chuẩn phổ biến nhất là

  • maximum absolute column sum : $\Vert A \Vert_1 = \max_{1\le j\le m}\sum_{i=1}^n\vert a_{ij}\vert $
  • maximum absolute row sum : $\Vert A \Vert_{\infty} = \max_{1\le i\le n}\sum_{j=1}^m\vert a_{ij}\vert $

condition number của một ma trận : $\Vert A\Vert \Vert A^{-1}\Vert$. Con số này nhỏ (well-conditioned), lớn thì (ill-conditioned) $\Rightarrow$ how much the output value of the function can change for a small change in the input argument (wikipedia)

numerically stable : các calculations có biến động nhỏ ở dữ liệu đầu vào dẫn tới biến động nhỏ ở error (nghiệm số và nghiệm chính xác).

  • It is obvious from the definition that a nonsingular matrix and its inverse have the same condition number.

Cần phải biết về cái preconditioner. Xem ở mục khác có ghi cụ thể hơn.

In linear algebra and numerical analysis, a preconditioner $P$ of a matrix $A$ is a matrix such that $P^{-1}A$ has a smaller condition number than $A$ (smaller condition number implies more well-conditioned matrix).

Preconditioners are useful in iterative methods to solve a linear system $Ax=b$ for $x$ since the rate of convergence for most iterative linear solvers increases as the condition number of a matrix decreases as a result of preconditioning. Đoạn này và đoạn trên là xem ở Wikipedia.

Xem thêm về condtional number của một matrix ở trang Math2IT.


Condition number of a stiffness matrix nói trong sách của Claes (trang 141): If A is the stiffness matrix related to an elliptic problem of order $2m$, then the condition number $k(A)$ s.t. $k(A) \le O(h^{-2m})$ or $k(A) \le ch^{-2m}$


Thường người ta test thử với Hilbert matrix để xem thử condition number của nó thế nào. Đây là ma trận ill-conditioned.

Trong matlab, để tạo một Hilbert matrix $n\times n$ thì dùng câu lệnh hilb(n).

Positive definite matrix

Xem định nghĩa Positive definite matrix và hiểu rõ nó hơn ở file này - positive definite.pdf.


PDM khi all eigenvalues của matrix ấy đều positive.


The determinant of a positive definite matrix is always positive, so a positive definite matrix is always nonsingular. Xem thêm trên Wolfram.


Trong Finite Element Method, matrix $A$ trong $AU=F$ phải là positive definite, cái này được nói đến trong Numrical solution of PDE by the FEM của Claes Johnson mục 1.2.

Quadrature

Xem bài viết khá dễ hiểu tại đây. Lecture 10 và 16, có download rùi, để trong thư mục background.

Quadrature có nghĩa là xấp xỉ 1 integrate bởi một lượng

Lưu ý là quadrature take exact values nếu như hàm $f$ là polynomial hoặc các dạng tương tự vậy, xem kỹ hơn trong các files trên.

Có thể xem ví dụ code matlab trong folder background\numerical analysis.

Còn quadrature cho tam giác bất kỳ ở bậc bất kỳ thì xem cụ thể trong file, công thức khá phức tạp.

Shape functions

In FEM the basic concept is to assume an approximate solution that satisfies the governing differential equation and boundary conditions. The whole idea is to get this assumed or approximate solution as close to the exact solution as possible. To do this we assume our approximate solution to be a linear combination of simpler functions. These simpler functions are called shape functions.

For instance we take an approximate solution $U^{\ast}= N_1u_1+ N_2u_2+\ldots$ here $N_1, N_2, N_3, \ldots$ are shape functions and $u_1, u_2,\ldots$ are constants (which are to be evaluated). How we choose the shape functions is governed by the rule that they must be partitions of unity i.e. the sum of all shape functions at any given point $(x,y,z)$ must be $1$. ($N_1 + N_2+ N_3+\ldots =1$).  The number and order of shape functions determine the accuracy of solution. Ideally, more the shape functions the more accurate the solution and more the computational power required.

Ref here (quora).


Note that the shape functions are non-zero in the element and zero everywhere else.


Consider on 1 triangle, for example, there are 3 nodal shape basis functions


Shape functions are defined in local coordinate.


[Also] The shape function is the function which interpolates the solution between the discrete values obtained at the mesh nodes. Therefore, appropriate functions have to be used and, as already mentioned, low order polynomials are typically chosen as shape functions. In this work linear shape functions are used.

Boundary conditions

Henry condition (xem các references nói về cái này trong thesis của Trung Hieu trang 9 HieuThesis : $[\beta u]=0$ on $\Gamma$

Robin BC: combine of Dirichlet and Neumann BC

Dirichlet BC = essential bc (not really correct for all cases) see more here

Newmann BC = natural bc (not really correct for all cases) see more on the link above.

Eigenvalues and eigenvectors & Singular values and singular vectors

Eigenvalues and eigenvectors

Xem thêm tại wikipedia.

In linear algebra, an eigenvector or characteristic vector of a linear transformation is a non-zero vector that does not change its direction when that linear transformation is applied to it. More formally, if $T$ is a linear transformation from a vector space $V$ over a field $F$ into itself and $v$ is a vector in $V$ that is not the zero vector, then $v$ is an eigenvector of $T$ if $T(v)$ is a scalar multiple of $v$. This condition can be written as the equation

where $\lambda$ is a scalar in the field $F$, known as the eigenvalue, characteristic value, or characteristic root associated with the eigenvector $v$.

If the vector space $V$ is finite-dimensional, then the linear transformation $T$ can be represented as a square matrix $A$, and the vector $v$ by a column vector, rendering the above mapping as a matrix multiplication on the left hand side and a scaling of the column vector on the right hand side in the equation

Xem định nghĩa Positive definite matrix và hiểu rõ nó hơn ở file positive definite.pdf.

Singular values and singular vectors

Xem thêm tại đây (docs của mathworks). Cái eigenvalue decomposition cũng được giải thích trong này. Nếu link die, có thể xem ở eigenvalue and singular value.pdf.

A singular value and pair of singular vectors of a square or rectangular matrix $A$ are a nonnegative scalar σ and two nonzero vectors $u$ and $v$ so that

The term “singular value” relates to the distance between a matrix and the set of singular matrices.

Eigenvalues play an important role in situations where the matrix is a transformation from one vector space onto itself. Systems of linear ordinary differential equations are the primary examples. The values of $\lambda$ can correspond to frequencies of vibration, or critical values of stability parameters, or energy levels of atoms.

Singular values play an important role where the matrix is a transformation from one vector space to a different vector space, possibly with a different dimension.


Given a matrix $A$, if the eigenvalues of $A^TA$ are $\lambda_i \geq 0$, then $\sqrt{\lambda_i}$ are the singular values of $A$. If $t$ is an eigenvalue of $A$, then $\vert t\vert$ is a singular value of $A$. And here is an example should be noticed,

the eigenvalues of $A$ are $(1,1,0)$ while the singular values of $A$ are $(\sqrt{3},1,0)$.

Cái này là trên stackexchange.

matrix and eigenvalue

http://linear.ups.edu/html/section-PEE.html (đây cũng là trang học linear algebra rất hay, nhấn link xổ xuống nhiều định nghĩa và chứng minh)

Linear system solver

What is a solver?

Xem trên mathwork. When you choose a solver for simulating a model, consider:

  • The dynamics of the system
  • The stability of the solution
  • The speed of computation
  • The robustness of the solver

Giới thiệu sơ qua các direct solver vs iterative solver này nọ, dễ hiểu có thể xem ở đây : iterative solvers for linear systems.pdf

  • direct solver : LU decomposition, Gaussian elimination, Cholesky factorization, MUMPS.
  • iterative solver : GMRES, MINRES,…

Recently combining direct and iterative solvers has become an active area of research eg direct solvers used to obtain preconditioners for iterative solvers.


Tài liệu này NumPro_WS1213_Vorlesung_Kapitel_4.pdf cũng rất hay.


The default solver in FreeFem++ is GMRES (iterative solver).

LU Solver

LU factorization :

First, solve $Ly=b$ then solve $ Rx=y $.

Thuật toán dưới đây có thể xem ở NumPro_WS1213_Vorlesung_Kapitel_4.pdf

for i from 1 to n do
   for k from 1 to i-1 do
      l[i,k]:=a[i,k];
      for j from 1 to k-1 do l[i,k]:=l[i,k]-l[i,j]*u[j,k] od;
      l[i,k]:=l[i,k]/u[k,k]
   od;
   for k from i to n do
      u[i,k]:=a[i,k];
      for j from 1 to i-1 do u[i,k]:=u[i,k]-l[i,j]*u[j,k] od
   od
od;
for i from 1 to n do
y[i]:=b[i];
   for j from 1 to i-1 do y[i]:=y[i]-l[i,j]*y[j] od
od;
for i from n downto 1 do
   x[i]:=y[i];
   for j from i+1 to n do x[i]:=x[i]-u[i,j]*x[j] od;
   x[i]:=x[i]/u[i,i]
od;

Cholesky Solver

Thuật toán dưới đây có thể xem ở NumPro_WS1213_Vorlesung_Kapitel_4.pdf

for k from 1 to n do
  l[k,k]:=a[k,k];
  for j from 1 to k-1 do l[k,k]:=l[k,k]-l[k,j]ˆ2 od;
  l[k,k]:=(l[k,k])ˆ0.5;
  for i from k+1 to n do
     l[i,k]:=a[i,k];
     for j from 1 to k-1 do l[i,k]:=l[i,k]-l[i,j]*l[k,j] od;
     l[i,k]:=l[i,k]/l[k,k]
od od;

UMFPACK Solver

Các matrix có thể nonsymmetric. Là sparse, square matrix. với $L$ = upper matrix, $U$ = upper matrix.

(từ scilab) First an LU factorization of the matrix is computed ($P R^{-1} A Q = LU$ where P and Q are permutation matrices, R is a diagonal matrix (row scaling), L a lower triangular matrix with a diagonal of 1, and U an upper triangular matrix) then a first solution is computed with forward/backward substitutions ; finaly the solution is improved by iterative refinement.

$\Rightarrow$ đã có UMFPACK64, muốn sử dụng trong Freefem++ thì phải load trước khi dùng

load "UMFPACK64"
//không có dấu ; phía sau

CG Solver

GMRES solver

sparsesolver

Crout solver

factorize

factorize = if true then do the matrix factorization for LU, Cholesky or Crout, the default value is false.(section 6.12)

MUMPS

  • Cái này tốt cho large sparse system, especially those arising from FEM.
  • general symmetric/unsymmetric or symmetric positive definite
  • Cái này là version of Gaussian elimination (phép khử Gauss)
  • Muốn dùng trong Freefem++ thì phải cài thêm.
  • Direct method

Gaussian elimination

Thuật toán dưới đây có thể xem ở NumPro_WS1213_Vorlesung_Kapitel_4.pdf

for j from 1 to n do
  for k from j to n do r[j,k]:=a[j,k] od;
  y[j]:=b[j];
  for i from j+1 to n do
     l[i,j]:=a[i,j]/r[j,j];
     for k from j+1 to n do a[i,k]:=a[i,k]-l[i,j]*r[j,k] od;
     b[i]:=b[i]-l[i,j]*y[j]
od od;
for i from n downto 1 do
  x[i]:=y[i];
  for j from i+1 to n do x[i]:=x[i]-r[i,j]*x[j] od;
  x[i]:=x[i]/r[i,i]
od;
keyboard_arrow_right Go to Numerical Analysis note 2.
Top